SecureNexusLab/llm-prompt-injection-security-handbook
GitHub: SecureNexusLab/llm-prompt-injection-security-handbook
一份关于LLM提示词注入攻击与防御的综合性技术研究报告,揭示AI安全中最核心的漏洞问题并提供系统性缓解方案。
Stars: 20 | Forks: 3
# llm-prompt-injection-security-handbook
标签:AI安全报告, AI安全研究, ASR测量标准, CVE-2025-32711, EchoLeak, GCG, Greedy Coordinate Gradient, Jailbreak, MCP安全, OWASP LLM Top 10, RAG安全, RAG投毒, Red Canary, Transformer架构, 中文技术报告, 企业知识库安全, 大语言模型安全, 安全架构设计, 对抗性后缀, 对抗性攻击, 指令数据混淆, 机密管理, 注意力机制, 直接注入, 纵深防御, 越狱, 逆向工具, 间接注入, 防御架构