mmukul/ai-llm-security-lab

GitHub: mmukul/ai-llm-security-lab

一个基于OWASP LLM Top 10的本地动手实验平台,用于演示LLM安全风险与模型对比。

Stars: 0 | Forks: 0

# AI LLM 安全实验室 🔐 基于 OWASP LLM Top 10 的动手演示。 ## 安装 安装 Ollama: https://ollama.com ## 构建模型 ollama create securebot -f modelfiles/Modelfile.securebot ollama create vulnerablebot -f modelfiles/Modelfile.vulnerablebot ollama create debugbot -f modelfiles/Modelfile.debugbot ## ▶️ 运行 ollama run debugbot ## 通过 Python 测试 pip install -r requirements.txt python scripts/test_debugbot.py ## 目的 - 演示提示词注入 - 比较安全模型与脆弱模型 - 培养 LLM 安全意识 ## YouTube 系列 LLM Security Mastery 🔐
标签:AI安全, AI风险缓解, Chat Copilot, Hands-on演示, Linux系统监控, LLM攻防, LLM评估, Modelfile, Ollama, OWASP LLM Top 10, TGT, 大语言模型安全, 安全实验室, 安全演示, 提示注入, 提示词攻击, 攻防演练, 本地大模型, 机密管理, 模型安全, 比较安全与脆弱模型, 测试框架, 调试模型, 逆向工具, 集群管理