pi-2r/devoxxfr2026-workshop-jailbreak-prompt-injection-mcp-poisoning

GitHub: pi-2r/devoxxfr2026-workshop-jailbreak-prompt-injection-mcp-poisoning

该项目提供一套完整的生成式AI提示注入与MCP投毒实验环境,帮助团队理解攻击链并提升AI安全防御能力。

Stars: 0 | Forks: 0

# [Devoxx 2026] Jailbreak, Prompt Injection, MCP Poisoning... Ne Paniquez Pas et Hackez l'IA 🥰 🤖 Ce projet github est issu du workshop fait par [Benjamin Bernard](https://www.linkedin.com/in/benvii/), [Xavier Charef](https://www.linkedin.com/in/xavier-charef-6b843497/), [François Nollen](https://www.linkedin.com/in/francois-nollen/) et [Pierre Therrode](https://www.linkedin.com/in/ptherrode/), pour le Devoxx 2026, avec comme sujet : [Jailbreak, Prompt Injection, MCP Poisoning... Ne Paniquez Pas et Hackez l'IA 🥰 🤖](https://m.devoxx.com/events/devoxxfr2026/talks/65312/jailbreak-prompt-injection-mcp-poisoning-dont-panic-and-hack-ai-) Jailbreak, Prompt Injection, MCP Poisoning... Don't Panic and Hack AI 🥰 🤖 ## 信息网络 Point d'accès wifi : * SSID: LLM_ATTACK * Mot de passe: password Lab AI Red Team partagé disponible ici : http://192.168.20.2:5000/login?auth=YOUR_AUTH_KEY ## 目录
🚧 💡 🚧 note sur La section “Introduction aux menaces de l’IA générative” 🚧 💡 🚧 La section “**Introduction aux menaces de l’IA générative**” vise avant tout à donner des repères pour comprendre les enjeux et prendre du recul sur le sujet, avant de se lancer pleinnement dans la pratique ("**Comprendre les Principes du Prompt Injection et leurs Impacts**"). Lors du codelab, cette introduction sera présentée sous forme de diaporama (environ 10min). Cela permettra à chacun de préparer sereinement sa机器 tout en se familiarisant progressivement avec la thématique abordée.
### 生成式人工智能威胁介绍(10 分钟) - [1 - Il était une fois dans un monde numérique...](step_1.md) - [2 - Pourquoi la sécurité des LLM est-elle cruciale ?](step_2.md) - [3 - Des écarts sous contrôle relatif](step_3.md) - [4 - Cadres de sécurité référents](step_4.md) ### 理解提示注入原理(40 分钟) - [5 - Introduction au playground et objectifs](step_5.md) - [6 - Techniques d'attaque par prompt injection](step_6.md) - [7 - Impacts réels et scénarios d'exploitation](step_7.md) ### 健壮性测试(30 分钟) - [8 - Test de robustesse ?](step_8.md) - [10 - PyRIT: Framework for Security Risk Identification and Red Teaming in Generative AI System](step_10.md) ### PAUSE(10 分钟) ### MCP:解释与威胁(20 分钟) - [11 - Le Model Context Protocol : l'infrastructure manquante de l'ère AI-Native](step_11.md) - [12 - Les menaces de sécurité liées au MCP](step_12.md) ## MCP 实验(60 分钟) - [13 - Prise en main de l'environnement MCP Labs](step_13.md) - [14 - Codelab : Shadowing d'Outils dans MCP](step_14.md) - [15 - Codelab : Attaque par "Rug Pull" (Tool Poisoning)](step_15.md) - [16 - Codelab : Indirect Prompt Injection via MCP](step_16.md) - [17 - Codelab : Command Injection (RCE) via un Serveur MCP](step_17.md) ### [BONUS] 健壮性评估与改进 - [9 - Garak: A Framework for Security Probing Large Language Models](step_9.md) - [18 - Benchmarking avec Promptfoo](step_18.md) - [19 - AI Red Teaming](step_19.md) - [20 - Supply Chain Compromise via Agent Skill malicieux](step_20.md) ### [CONCLUSION] 深入探讨(5 分钟) - [Remerciements](thanks-you.md) - [En savoir plus / ressources](resources.md)
标签:AI安全, AI安全研究, AI红队, Chat Copilot, Devoxx, Jailbreak, LLM漏洞, MCP中毒, 大语言模型安全, 威胁建模, 安全培训, 工作坊, 提示注入, 提示逃逸, 数据可视化, 机密管理, 模型中毒, 沙箱执行, 生成式AI威胁, 网络安全, 自动化攻击, 逆向工具, 隐私保护, 集群管理