Z6ugl6u/AI-Security-Research

GitHub: Z6ugl6u/AI-Security-Research

一个涵盖 LLM 安全基础、攻击技术、防御策略及实战工具的综合知识库,帮助安全从业者系统学习 AI 安全攻防。

Stars: 0 | Forks: 0

# 🤖 AI 安全研究 ## ⚠️ 免责声明 本仓库**仅出于教育目的**。此处记录的技术旨在用于理解、检测和防御 AI 系统。切勿在未经明确授权的情况下将其用于攻击系统。 ## 🗂️ 结构 ``` AI-Security-Research/ ├── 01-fondamentaux/ │ ├── llm-architecture.md │ ├── training-data-pipeline.md │ └── embeddings-vectors.md ├── 02-prompt-injection/ │ ├── direct-injection.md │ ├── indirect-injection.md │ ├── rag-poisoning.md │ └── payload-cheatsheet.md ├── 03-jailbreaking/ │ ├── techniques-overview.md │ ├── bypass-strategies.md │ └── multi-turn-attacks.md ├── 04-defenses/ │ ├── input-sanitization.md │ ├── output-filtering.md │ └── llm-firewalls.md ├── 05-offensive-ai/ │ ├── data-poisoning.md │ ├── adversarial-examples.md │ ├── model-extraction.md │ └── ai-agent-attacks.md ├── tools/ │ ├── README.md │ ├── prompt-injector.py │ ├── jailbreak-tester.py │ └── payload-fuzzer.py └── labs-writeups/ └── tryhackme-ai-path.md ``` ## 🧭 从何开始? | 角色 | 入口 | |--------|----------------| | 初学者 | `01-fondamentaux/llm-architecture.md` | | 渗透测试人员 | `02-prompt-injection/direct-injection.md` | | 防御人员 | `04-defenses/input-sanitization.md` | | 研究人员 | `05-offensive-ai/ai-agent-attacks.md` | ## 📚 资源 - [OWASP LLM Top 10](https://owasp.org/www-project-top-10-for-large-language-model-applications/) - [MITRE ATLAS](https://atlas.mitre.org/) - [LLM Security](https://llmsecurity.net) - [TryHackMe AI 路径](https://tryhackme.com)
标签:AI代理攻击, AI对抗性攻击, AI红队, CISA项目, DLL 劫持, GitHub, MITRE ATLAS, OWASP大模型Top10, Payload, Python, PyTorch, RAG投毒, 主机安全, 云资产清单, 人工智能安全, 合规性, 大模型防火墙, 大语言模型, 安全教育, 情报收集, 提示注入, 攻击性AI, 无后门, 模型提取, 漏洞研究, 网络安全, 网络安全靶场, 输入过滤, 输出过滤, 逆向工具, 逆向工程, 防御加固, 防御机制, 隐私保护, 集群管理