VaradDurge/PromptFuzz
GitHub: VaradDurge/PromptFuzz
针对 LLM 应用的对抗性安全模糊测试工具,帮助开发者在上线前快速发现提示注入、越狱和数据提取等漏洞。
Stars: 1 | Forks: 0
# PromptFuzz
**针对 LLM 应用的对抗性安全测试。**
在攻击者之前发现提示注入、越狱和数据提取漏洞。
[](https://pypi.org/project/promptfuzz/)
[](https://www.python.org/downloads/)
[](https://www.gnu.org/licenses/agpl-3.0)
[](https://github.com/varadk27/promptfuzz/actions)
你发布了一个 LLM 产品。你添加了系统提示。你认为它是安全的。
其实不然。**PromptFuzz 会在你的用户发现之前找出漏洞。**
PromptFuzz 向你的应用发起 **165+ 个单轮对抗性提示** 以及 **12 个多轮攻击链** —
包括越狱、提示注入、数据提取、目标劫持、边缘情况以及
对话级别的升级序列 — 并在几秒钟内生成专业的
漏洞报告。
交互式向导:
标签:AI安全, Chat Copilot, Fuzzing, Jailbreak, LNA, Python, 大语言模型安全, 安全测试, 对抗攻击, 提示注入, 攻击性安全, 攻击链, 敏感信息检测, 数据提取, 文档结构分析, 无后门, 机密管理, 系统提示泄露, 逆向工具, 集群管理