GuntsG/Prompt-Injection-Attacks-and-Defenses-in-LLM-Applications

GitHub: GuntsG/Prompt-Injection-Attacks-and-Defenses-in-LLM-Applications

本项目系统地梳理并实践了针对大语言模型应用的 Prompt 注入攻击手法及其防御策略。

Stars: 0 | Forks: 0

# LLM 应用中的 Prompt 注入攻击与防御 📌 项目名称 📖 项目描述(您正在解决的问题) 🎯 目标 🧰 工具 / 技术(例如:Python、PyTorch、SQL 等) 🚀 如何运行(基础说明) 👥 团队成员 📅 时间线(可选,但建议提供) 署名要求: 任何学术、研究或商业用途均必须引用原始仓库及作者。
标签:AI伦理, AI安全, AI红蓝对抗, AI防御机制, Chat Copilot, CISA项目, DLL 劫持, DNS枚举, IP 地址批量处理, LLM应用防护, NLP, Python, PyTorch, 人工智能攻防, 大语言模型, 学术研究, 对抗性机器学习, 情报收集, 无后门, 模型越狱防御, 深度学习安全, 漏洞研究, 网络安全, 网络安全工具, 逆向工具, 隐私保护