ananyaa-k/promptGuard
GitHub: ananyaa-k/promptGuard
PromptGuard 是一个自动化的 LLM 红队演练平台,通过 50 多个对抗向量系统评估大语言模型的安全与隐私风险,并以三层评估架构在保持质量的同时显著降低成本。
Stars: 0 | Forks: 0
# PromptGuard
构建了 PromptGuard,这是一个自动化的 LLM 红队演练平台,可跨 50 多个对抗向量评估 AI 安全与隐私风险。设计了一个三层评估系统(embedding cache → classifier → judge),在保持质量的同时将评估成本降低了 97%。该项目要求负责任地处理敏感 prompt 数据、实施审计追踪,并设计透明的评估工作流——这些技能可直接应用于 SaaS 环境中的隐私操作,而在这些环境中,负责任的数据处理和合规文档记录至关重要。
## 这个项目使用了哪些技术?
本项目使用以下技术构建:
- Vite
- TypeScript
- React
- shadcn-ui
- Tailwind CSS
## 如何在本地运行此项目?
1. 克隆仓库
2. 导航到项目目录
3. 使用 `npm i` 安装依赖项
4. 使用 `npm run dev` 启动开发服务器
标签:AI安全, AI隐私保护, Chat Copilot, DLL 劫持, LLM红蓝对抗, React, SaaS合规, shadcn-ui, Syscalls, Tailwind CSS, TypeScript, Vite, Web应用开发, 向量化缓存, 大模型评测, 大语言模型, 安全合规, 安全插件, 审计日志, 密码管理, 对抗性攻击, 提示词攻击, 文本分类器, 红队评估, 网络代理, 自动化攻击, 自动化测试平台