nmzsweet-ui/llm-security-research
GitHub: nmzsweet-ui/llm-security-research
一个系统性的 LLM 红队研究项目,专注于提示词注入、越狱技术和 AI 安全漏洞的研究与文档化。
Stars: 0 | Forks: 0
# LLM 安全研究
对大型语言模型进行系统性红队研究——
提示词注入、越狱技术、分类器规避
以及 AI 安全漏洞。
## 研究人员
Vasil Andreev — 医疗保健 AI 安全专家
保加利亚布尔加斯
## 研究重点
- 提示词注入和指令劫持
- 越狱技术分类
- 医疗保健 AI 漏洞研究
- 巴尔干语言模型安全分析
- 分类器规避方法
## 仓库结构
| 文件夹 | 内容 |
|---|---|
| `/findings` | 已记录的漏洞和绕过方法 |
| `/methodology` | 研究框架和测试协议 |
| `/tools` | 测试脚本和自动化工具 |
| `/reports` | 完整研究报告和文章 |
| `/resources` | 参考资料、OWASP LLM、论文 |
## 研究方法
所有研究均遵循负责任的披露原则。
在公开披露之前,会先将发现报告给供应商。
测试在授权平台和研究环境中进行。
## 研究日志
| 日期 | 目标 | 技术 | 结果 | 严重程度 |
|---|---|---|---|---|
| — | — | — | — | — |
## 联系方式
LinkedIn:[your-linkedin]
邮箱:[andreev91@abv.bg]
标签:AI安全, AI模型安全, AI漏洞, Chat Copilot, DLL 劫持, Git 安全, Kubernetes 安全, 人工智能安全, 分类器规避, 医疗AI安全, 合规性, 大语言模型, 安全测试, 对抗性提示, 对抗性攻击, 巴尔干语言AI, 情报收集, 指令劫持, 提示注入, 攻击性安全, 模型鲁棒性, 漏洞研究, 红队研究, 语言模型安全, 越狱技术, 逆向工具, 集群管理