pi-2r/devoxxfr2026-workshop-jailbreak-prompt-injection-mcp-poisoning
GitHub: pi-2r/devoxxfr2026-workshop-jailbreak-prompt-injection-mcp-poisoning
该项目提供一套完整的生成式AI提示注入与MCP投毒实验环境,帮助团队理解攻击链并提升AI安全防御能力。
Stars: 0 | Forks: 0
# [Devoxx 2026] Jailbreak, Prompt Injection, MCP Poisoning... Ne Paniquez Pas et Hackez l'IA 🥰 🤖
Ce projet github est issu du workshop fait par [Benjamin Bernard](https://www.linkedin.com/in/benvii/), [Xavier Charef](https://www.linkedin.com/in/xavier-charef-6b843497/), [François Nollen](https://www.linkedin.com/in/francois-nollen/) et [Pierre Therrode](https://www.linkedin.com/in/ptherrode/), pour le Devoxx 2026, avec comme sujet : [Jailbreak, Prompt Injection, MCP Poisoning... Ne Paniquez Pas et Hackez l'IA 🥰 🤖](https://m.devoxx.com/events/devoxxfr2026/talks/65312/jailbreak-prompt-injection-mcp-poisoning-dont-panic-and-hack-ai-)
## 信息网络
Point d'accès wifi :
* SSID: LLM_ATTACK
* Mot de passe: password
Lab AI Red Team partagé disponible ici : http://192.168.20.2:5000/login?auth=YOUR_AUTH_KEY
## 目录
### 生成式人工智能威胁介绍(10 分钟)
- [1 - Il était une fois dans un monde numérique...](step_1.md)
- [2 - Pourquoi la sécurité des LLM est-elle cruciale ?](step_2.md)
- [3 - Des écarts sous contrôle relatif](step_3.md)
- [4 - Cadres de sécurité référents](step_4.md)
### 理解提示注入原理(40 分钟)
- [5 - Introduction au playground et objectifs](step_5.md)
- [6 - Techniques d'attaque par prompt injection](step_6.md)
- [7 - Impacts réels et scénarios d'exploitation](step_7.md)
### 健壮性测试(30 分钟)
- [8 - Test de robustesse ?](step_8.md)
- [10 - PyRIT: Framework for Security Risk Identification and Red Teaming in Generative AI System](step_10.md)
### PAUSE(10 分钟)
### MCP:解释与威胁(20 分钟)
- [11 - Le Model Context Protocol : l'infrastructure manquante de l'ère AI-Native](step_11.md)
- [12 - Les menaces de sécurité liées au MCP](step_12.md)
## MCP 实验(60 分钟)
- [13 - Prise en main de l'environnement MCP Labs](step_13.md)
- [14 - Codelab : Shadowing d'Outils dans MCP](step_14.md)
- [15 - Codelab : Attaque par "Rug Pull" (Tool Poisoning)](step_15.md)
- [16 - Codelab : Indirect Prompt Injection via MCP](step_16.md)
- [17 - Codelab : Command Injection (RCE) via un Serveur MCP](step_17.md)
### [BONUS] 健壮性评估与改进
- [9 - Garak: A Framework for Security Probing Large Language Models](step_9.md)
- [18 - Benchmarking avec Promptfoo](step_18.md)
- [19 - AI Red Teaming](step_19.md)
- [20 - Supply Chain Compromise via Agent Skill malicieux](step_20.md)
### [CONCLUSION] 深入探讨(5 分钟)
- [Remerciements](thanks-you.md)
- [En savoir plus / ressources](resources.md)
## 信息网络
Point d'accès wifi :
* SSID: LLM_ATTACK
* Mot de passe: password
Lab AI Red Team partagé disponible ici : http://192.168.20.2:5000/login?auth=YOUR_AUTH_KEY
## 目录
🚧 💡 🚧 note sur La section “Introduction aux menaces de l’IA générative” 🚧 💡 🚧
La section “**Introduction aux menaces de l’IA générative**” vise avant tout à donner des repères pour comprendre les enjeux et prendre du recul sur le sujet, avant de se lancer pleinnement dans la pratique ("**Comprendre les Principes du Prompt Injection et leurs Impacts**"). Lors du codelab, cette introduction sera présentée sous forme de diaporama (environ 10min). Cela permettra à chacun de préparer sereinement sa机器 tout en se familiarisant progressivement avec la thématique abordée.标签:AI安全, AI安全研究, AI红队, Chat Copilot, Devoxx, Jailbreak, LLM漏洞, MCP中毒, 大语言模型安全, 威胁建模, 安全培训, 工作坊, 提示注入, 提示逃逸, 数据可视化, 机密管理, 模型中毒, 沙箱执行, 生成式AI威胁, 网络安全, 自动化攻击, 逆向工具, 隐私保护, 集群管理