mmukul/ai-llm-security-lab
GitHub: mmukul/ai-llm-security-lab
一个基于OWASP LLM Top 10的本地动手实验平台,用于演示LLM安全风险与模型对比。
Stars: 0 | Forks: 0
# AI LLM 安全实验室 🔐
基于 OWASP LLM Top 10 的动手演示。
## 安装
安装 Ollama:
https://ollama.com
## 构建模型
ollama create securebot -f modelfiles/Modelfile.securebot
ollama create vulnerablebot -f modelfiles/Modelfile.vulnerablebot
ollama create debugbot -f modelfiles/Modelfile.debugbot
## ▶️ 运行
ollama run debugbot
## 通过 Python 测试
pip install -r requirements.txt
python scripts/test_debugbot.py
## 目的
- 演示提示词注入
- 比较安全模型与脆弱模型
- 培养 LLM 安全意识
## YouTube 系列
LLM Security Mastery 🔐
标签:AI安全, AI风险缓解, Chat Copilot, Hands-on演示, Linux系统监控, LLM攻防, LLM评估, Modelfile, Ollama, OWASP LLM Top 10, TGT, 大语言模型安全, 安全实验室, 安全演示, 提示注入, 提示词攻击, 攻防演练, 本地大模型, 机密管理, 模型安全, 比较安全与脆弱模型, 测试框架, 调试模型, 逆向工具, 集群管理