RanaAhmar/prompt-injections-db
GitHub: RanaAhmar/prompt-injections-db
一个结构化的提示注入与越狱案例库,旨在为红队测试和 LLM 安全评估提供标准对抗样本。
Stars: 0 | Forks: 0
# 🛡️ 提示注入数据库
## ✨ 概述
随着大型语言模型(LLM)被集成到核心业务系统中,保护它们免受对抗性输入的攻击至关重要。**提示注入数据库**是一个全面的、结构化的已知越狱、提示注入和对抗攻击向量数据集,专门为红队测试 AI 应用而设计。
## 🗃️ 数据库结构
数据库按攻击向量分类:
- **系统提示泄露**:提取底层指令的技术。
- **角色扮演/人格越狱**:通过强制 AI 扮演特定角色(如 DAN)来绕过安全护栏。
- **格式覆盖**:使用 XML/JSON 结构或代码块来混淆解析器。
- **上下文窗口填充**:在大量良性文本中隐藏恶意负载。
- **多语言规避**:使用翻译/转写绕过仅限英语的安全过滤器。
## 🚀 使用方法(红队测试)
您可以使用本仓库来评估 AI 代理或 RAG 管线的健壮性。
1. **克隆数据库**:
git clone https://github.com/RanaAhmar/prompt-injections-db.git
cd prompt-injections-db
2. **与测试框架集成**:
将 `./payloads/` 目录中的 JSON 文件加载到您的自动化测试套件(例如 Pytest、Jest)中,以对 LLM 端点进行模糊测试。
*注意:仅供教育和防御性安全用途。*
## 🏢 关于 Stackaura
提示注入数据库由 **Stackaura** 维护。我们专注于提供顶级数字解决方案,专注于前沿的网页开发、高级品牌塑造、可扩展的后端架构以及旨在安全提升业务的 AI 安全工程。
**准备好构建令人惊叹的产品了吗?**
A curated, open-source database of prompt injections and jailbreaks for testing LLM security.
标签:Apache-2.0, Homebrew安装, Jest, JSON结构混淆, Pytest, RAG安全, Red Canary, Stackaura, XML注入, 上下文窗口泛洪, 代码块注入, 多语言规避, 大语言模型安全, 安全护栏绕过, 安全测试, 安全规则引擎, 对抗攻击, 开源数据集, 提示注入, 攻击性安全, 敏感信息检测, 数据库, 机密管理, 格式覆盖, 系统提示泄露, 自动化模糊测试, 角色扮演越狱, 逆向工具, 防御性安全, 集群管理