Ce projet github est issue du workshop fait par Benjamin Bernard, Xavier Charef, François Nollen et Pierre Therrode, pour le Devoxx 2026, avec comme sujet : Jailbreak, Prompt Injection, MCP Poisoning... Don't Panic and Hack AI 🥰 🤖
Support / Slides de présentation présenté pendant le codelab disponible ici.
Point d'accès wifi :
- SSID: devoxx-hol
- Mot de passe: VOIR SUR LE SLIDE.
Lab AI Red Team partagé disponible ici : https://home.playground-ms-ai.benvii.com/login?auth=DEVOXX_SECRET_KEY
🚧 💡 🚧 note sur La section “Introduction aux menaces de l’IA générative” 🚧 💡 🚧
La section “Introduction aux menaces de l’IA générative” vise avant tout à donner des repères pour comprendre les enjeux et prendre du recul sur le sujet, avant de se lancer pleinnement dans la pratique ("Comprendre les Principes du Prompt Injection et leurs Impacts").
Lors du codelab, cette introduction sera présentée sous forme de diaporama (environ 10min). Cela permettra à chacun de préparer sereinement sa machine tout en se familiarisant progressivement avec la thématique abordée.
- 1 - Il était une fois dans un monde numérique...
- 2 - Pourquoi la sécurité des LLM est-elle cruciale ?
- 3 - Des écarts sous contrôle relatif
- 4 - Cadres de sécurité référents
- 5 - Introduction au playground et objectifs
- 6 - Techniques d'attaque par prompt injection
- 7 - Impacts réels et scénarios d'exploitation
- 8 - Test de robustesse ?
- 9 - PyRIT: Framework for Security Risk Identification and Red Teaming in Generative AI System
- 10 - Le Model Context Protocol : l'infrastructure manquante de l'ère AI-Native
- 11 - Les menaces de sécurité liées au MCP
- 12 - Prise en main de l'environnement MCP Labs
- 13 - Codelab : Shadowing d'Outils dans MCP
- 14 - Codelab : Attaque par "Rug Pull" (Tool Poisoning)
- 15 - Codelab : Indirect Prompt Injection via MCP
- 16 - Codelab : Command Injection (RCE) via un Serveur MCP
