RanaAhmar/prompt-injections-db

GitHub: RanaAhmar/prompt-injections-db

一个结构化的提示注入与越狱案例库,旨在为红队测试和 LLM 安全评估提供标准对抗样本。

Stars: 0 | Forks: 0

# 🛡️ 提示注入数据库
Maintained Yes Security Critical

A curated, open-source database of prompt injections and jailbreaks for testing LLM security.

## ✨ 概述 随着大型语言模型(LLM)被集成到核心业务系统中,保护它们免受对抗性输入的攻击至关重要。**提示注入数据库**是一个全面的、结构化的已知越狱、提示注入和对抗攻击向量数据集,专门为红队测试 AI 应用而设计。 ## 🗃️ 数据库结构 数据库按攻击向量分类: - **系统提示泄露**:提取底层指令的技术。 - **角色扮演/人格越狱**:通过强制 AI 扮演特定角色(如 DAN)来绕过安全护栏。 - **格式覆盖**:使用 XML/JSON 结构或代码块来混淆解析器。 - **上下文窗口填充**:在大量良性文本中隐藏恶意负载。 - **多语言规避**:使用翻译/转写绕过仅限英语的安全过滤器。 ## 🚀 使用方法(红队测试) 您可以使用本仓库来评估 AI 代理或 RAG 管线的健壮性。 1. **克隆数据库**: git clone https://github.com/RanaAhmar/prompt-injections-db.git cd prompt-injections-db 2. **与测试框架集成**: 将 `./payloads/` 目录中的 JSON 文件加载到您的自动化测试套件(例如 Pytest、Jest)中,以对 LLM 端点进行模糊测试。 *注意:仅供教育和防御性安全用途。* ## 🏢 关于 Stackaura 提示注入数据库由 **Stackaura** 维护。我们专注于提供顶级数字解决方案,专注于前沿的网页开发、高级品牌塑造、可扩展的后端架构以及旨在安全提升业务的 AI 安全工程。 **准备好构建令人惊叹的产品了吗?**
Visit Stackaura
标签:Apache-2.0, Homebrew安装, Jest, JSON结构混淆, Pytest, RAG安全, Red Canary, Stackaura, XML注入, 上下文窗口泛洪, 代码块注入, 多语言规避, 大语言模型安全, 安全护栏绕过, 安全测试, 安全规则引擎, 对抗攻击, 开源数据集, 提示注入, 攻击性安全, 敏感信息检测, 数据库, 机密管理, 格式覆盖, 系统提示泄露, 自动化模糊测试, 角色扮演越狱, 逆向工具, 防御性安全, 集群管理