GuntsG/Prompt-Injection-Attacks-and-Defenses-in-LLM-Applications
GitHub: GuntsG/Prompt-Injection-Attacks-and-Defenses-in-LLM-Applications
本项目系统地梳理并实践了针对大语言模型应用的 Prompt 注入攻击手法及其防御策略。
Stars: 0 | Forks: 0
# LLM 应用中的 Prompt 注入攻击与防御
📌 项目名称
📖 项目描述(您正在解决的问题)
🎯 目标
🧰 工具 / 技术(例如:Python、PyTorch、SQL 等)
🚀 如何运行(基础说明)
👥 团队成员
📅 时间线(可选,但建议提供)
署名要求:
任何学术、研究或商业用途均必须引用原始仓库及作者。
标签:AI伦理, AI安全, AI红蓝对抗, AI防御机制, Chat Copilot, CISA项目, DLL 劫持, DNS枚举, IP 地址批量处理, LLM应用防护, NLP, Python, PyTorch, 人工智能攻防, 大语言模型, 学术研究, 对抗性机器学习, 情报收集, 无后门, 模型越狱防御, 深度学习安全, 漏洞研究, 网络安全, 网络安全工具, 逆向工具, 隐私保护