Neeraj-XTR/LLM-Jailbreak-Benchmark-Framework
GitHub: Neeraj-XTR/LLM-Jailbreak-Benchmark-Framework
一个用于评估和对比多个大语言模型面对越狱攻击与提示注入策略时安全性的基准测试框架。
Stars: 0 | Forks: 0
# LLM-Jailbreak-Benchmark-Framework
该基准测试框架用于评估不同 LLM 面对越狱攻击和提示注入策略时的脆弱性。系统在多个模型上运行相同的攻击提示,衡量安全结果,并生成对比基准报告。
```
llm_jailbreak_benchmark/
│
├── run_benchmark.py
├── requirements.txt
├── README.md
│
├── config/
│ └── settings.py
│
├── models/
│ ├── base_model.py
│ ├── openai_adapter.py
│ ├── anthropic_adapter.py
│ ├── gemini_adapter.py
│ ├── llama_adapter.py
│ └── mistral_adapter.py
│
├── attacks/
│ └── attack_prompts.json
│
├── metrics/
│ ├── classification.py
│ └── metrics.py
│
├── evaluator/
│ └── evaluator.py
│
├── runner/
│ └── benchmark_runner.py
│
└── utils/
├── logger.py
├── loader.py
└── report_generator.py
```
标签:Anthropic, API密钥扫描, CI/CD安全, CISA项目, CIS基准, DLL 劫持, Gemini, Kubernetes 安全, Llama, Mistral, OpenAI, Petitpotam, Python, 内存规避, 大语言模型, 安全合规, 安全度量, 安全评估框架, 对抗攻击, 敏感信息检测, 无后门, 模型鲁棒性, 比较分析, 网络代理, 逆向工具, 零日漏洞检测