YI597/llm-security-test
GitHub: YI597/llm-security-test
一套覆盖OWASP LLM Top 10的大语言模型安全评估工具,提供越狱、注入、有害内容等多维度测试用例与量化评分体系。
Stars: 0 | Forks: 0
# LLM 安全测试
一个用于评估大语言模型安全性的强大安全测试技能,涵盖越狱攻击、提示注入检测、有害内容过滤等方面。
[](https://opensource.org/licenses/MIT)
[](https://github.com/YI597/llm-security-test/stargazers)

## 🎯 功能
### 核心安全模块
| 模块 | 描述 | 测试用例 |
|--------|-------------|------------|
| 🔓 越狱测试 | 角色扮演、编码混淆、DAN 模式攻击 | 30+ |
| 💉 提示注入 | 直接注入、上下文注入、社会工程学 | 25+ |
| ☠️ 有害内容 | 违法信息、隐私泄露、不当内容 | 20+ |
| 🔐 数据泄露 | 训练数据记忆、上下文隔离 | 15+ |
| 🔒 隐私保护 | PII 识别、脱敏处理 | 15+ |
### v1.1 新特性
| 特性 | 描述 |
|---------|-------------|
| 🌏 多语言测试 | 日语、韩语、德语、法语、西班牙语、俄语 (100+ 用例) |
| 🏢 行业场景 | 金融、医疗、教育、法律 (100+ 用例) |
| 🔗 LLM API 集成 | OpenAI、Moonshot、Zhipu AI、DeepSeek、Claude、Gemini |
| 📄 多格式报告 | JSON、Markdown、PDF 导出 |
### 支持的 LLM 提供商
```
OpenAI → GPT-4, GPT-3.5
Moonshot/Kimi → moonshot-v1-8k/32k/128k
Zhipu AI → GLM-4, GLM-3
DeepSeek → deepseek-chat
Anthropic → Claude-3.5-Sonnet
Google → Gemini-Pro
```
## 📦 安装
1. 下载技能包
2. 解压到您的 WorkBuddy 技能目录:
~/.workbuddy/skills/llm-security-test/
## 🚀 快速入门
### 基础安全测试
```
User: "Test the jailbreak resistance of this AI assistant"
Execute: Run jailbreak test module
```
### 全面安全评估
```
User: "Generate a complete security test report"
Execute: Run all test modules and generate report
```
### 多语言测试
```
User: "Test Japanese and Korean jailbreak attacks"
Execute: Load multilingual_cases.md, run JA/KA test cases
```
### 行业合规测试
```
User: "Test the compliance of this financial AI"
Execute: Load industry_cases.md, run finance test cases
```
## 📁 文件结构
```
llm-security-test/
├── SKILL.md # Main skill file
├── README.md # This file
├── scripts/
│ ├── quick_scan.py # Quick security scanner
│ ├── injection_detector.py # Prompt injection detector
│ ├── llm_providers.py # LLM API integration (v1.1)
│ └── report_generator.py # Report generator (v1.1)
└── references/
├── test_cases.md # OWASP LLM Top 10 + core cases (200+)
├── multilingual_cases.md # Multilingual test cases (100+) - v1.1
├── industry_cases.md # Industry scenarios (100+) - v1.1
├── scoring.md # Scoring standards
└── config.yaml # Configuration
```
## 📊 评分系统
### 等级标准
| 等级 | 分数范围 | 描述 |
|-------|-------------|-------------|
| S | 95-100 | 优秀 - 企业级 |
| A | 85-94 | 良好 - 达到生产标准 |
| B | 70-84 | 可接受 - 需要改进 |
| C | 55-69 | 警告 - 存在显著问题 |
| D | 40-54 | 较差 - 存在重大漏洞 |
| F | 0-39 | 危急 - 部署不安全 |
### 应用阈值
| 场景 | 最低分数 | 高风险阈值 |
|----------|---------------|---------------------|
| 公开聊天 | 70 (C) | 任何维度 < 50 |
| 商业应用 | 80 (B) | 任何维度 < 60 |
| 金融/医疗 | 90 (A) | 任何维度 < 70 |
## 🔧 配置
编辑 `references/config.yaml`:
```
llm:
provider: "moonshot"
api_key: "${MOONSHOT_API_KEY}"
model: "moonshot-v1-8k"
test:
scope: "full"
categories:
- jailbreak
- injection
- harmful
- leakage
- privacy
- multilingual # v1.1
- industry # v1.1
report:
formats: ["json", "markdown", "pdf"]
output_dir: "reports"
```
## 📈 OWASP LLM Top 10 覆盖范围
| OWASP ID | 类别 | 测试覆盖 |
|----------|----------|---------------|
| LLM01 | 提示注入 | ✅ |
| LLM02 | 不安全的输出 | ✅ |
| LLM03 | 训练数据投毒 | ✅ |
| LLM04 | 模型拒绝服务 | ✅ |
| LLM05 | 供应链 | ✅ |
| LLM06 | 敏感信息 | ✅ |
| LLM07 | 不安全的插件 | ✅ |
| LLM08 | 过度授权 | ✅ |
| LLM09 | 过度依赖 | ✅ |
| LLM10 | 模型盗窃 | ✅ |
## 🌍 行业合规
### 金融测试
- 反欺诈:虚假记录、网络钓鱼、投资诈骗
- 合规性:KYC、AML、投资者适当性
- 隐私:金融 PII 保护
### 医疗测试
- 处方欺诈
- 患者隐私(等同于 HIPAA)
- 药品安全指导
### 教育测试
- 学术诚信
- 未成年人保护
- 防作弊
## 📄 许可证
MIT License - 详情请见 [LICENSE](LICENSE)。
## 🔗 链接
- 📖 [文档](https://github.com/YI597/llm-security-test)
- 🐛 [Bug 报告](https://github.com/YI597/llm-security-test/issues)
- 💡 [功能请求](https://github.com/YI597/llm-security-test/discussions)
用 ❤️ 为 AI 安全而制作
标签:AI安全, API集成, Chat Copilot, CISA项目, Claude, CVE检测, DeepSeek, DLL 劫持, Gemini, GLM, GPT-4, Jailbreak, Kimi, LLM, Naabu, OpenAI, Petitpotam, PII, SecOps, Unmanaged PE, 云安全架构, 内存规避, 内容安全, 反取证, 可观测性, 多语言测试, 大模型安全, 大语言模型, 安全报告, 安全测试, 安全评估, 密钥泄露防护, 提示注入, 攻击性安全, 数据脱敏, 文档安全, 有害内容检测, 机器学习安全, 熵值分析, 网络安全, 行业场景, 逆向工具, 隐私保护, 集群管理, 零日漏洞检测