nmzsweet-ui/llm-security-research

GitHub: nmzsweet-ui/llm-security-research

一个系统性的 LLM 红队研究项目,专注于提示词注入、越狱技术和 AI 安全漏洞的研究与文档化。

Stars: 0 | Forks: 0

# LLM 安全研究 对大型语言模型进行系统性红队研究—— 提示词注入、越狱技术、分类器规避 以及 AI 安全漏洞。 ## 研究人员 Vasil Andreev — 医疗保健 AI 安全专家 保加利亚布尔加斯 ## 研究重点 - 提示词注入和指令劫持 - 越狱技术分类 - 医疗保健 AI 漏洞研究 - 巴尔干语言模型安全分析 - 分类器规避方法 ## 仓库结构 | 文件夹 | 内容 | |---|---| | `/findings` | 已记录的漏洞和绕过方法 | | `/methodology` | 研究框架和测试协议 | | `/tools` | 测试脚本和自动化工具 | | `/reports` | 完整研究报告和文章 | | `/resources` | 参考资料、OWASP LLM、论文 | ## 研究方法 所有研究均遵循负责任的披露原则。 在公开披露之前,会先将发现报告给供应商。 测试在授权平台和研究环境中进行。 ## 研究日志 | 日期 | 目标 | 技术 | 结果 | 严重程度 | |---|---|---|---|---| | — | — | — | — | — | ## 联系方式 LinkedIn:[your-linkedin] 邮箱:[andreev91@abv.bg]
标签:AI安全, AI模型安全, AI漏洞, Chat Copilot, DLL 劫持, Git 安全, Kubernetes 安全, 人工智能安全, 分类器规避, 医疗AI安全, 合规性, 大语言模型, 安全测试, 对抗性提示, 对抗性攻击, 巴尔干语言AI, 情报收集, 指令劫持, 提示注入, 攻击性安全, 模型鲁棒性, 漏洞研究, 红队研究, 语言模型安全, 越狱技术, 逆向工具, 集群管理