🚧 🇬🇧 🚧 English version available here 🚧 🇬🇧 🚧
Ce projet github est issue du workshop fait par Benjamin Bernard, Xavier Charef, François Nollen et Pierre Therrode, pour le Devfest 2025, avec comme sujet : La Guerre des Prompts : attaques & défenses au royaume des LLM ⚔️🛡️🤖
Point d'accès wifi :
- SSID: LLM_ATTACK
- Mot de passe: password
Lab AI Red Team partagé disponible ici : http://192.168.20.2:5000/login?auth=YOUR_AUTH_KEY
Instance partagée de Tock disponible ici : http://192.168.20.2/
Comptes utilisés pour l'instance partagée (vous avez un petite papier), sinon liste ici.
🚧 💡 🚧 note sur La section “Introduction aux menaces de l’IA générative” 🚧 💡 🚧
La section “Introduction aux menaces de l’IA générative” vise avant tout à donner des repères pour comprendre les enjeux et prendre du recul sur le sujet, avant de se lancer pleinnement dans la pratique ("Comprendre les Principes du Prompt Injection et leurs Impacts").
Lors du codelab, cette introduction sera présentée sous forme de diaporama (environ 10min). Cela permettra à chacun de préparer sereinement sa machine tout en se familiarisant progressivement avec la thématique abordée.
- 1 - Il était une fois dans un monde numérique...
- 2 - Pourquoi la sécurité des LLM est-elle cruciale ?
- 3 - Des écarts sous contrôle relatif
- 4 - Cadres de sécurité référents
- 5 - Introduction au playground et objectifs
- 6 - Techniques d'attaque par prompt injection
- 7 - Impacts réels et scénarios d'exploitation
- 8 - Test de robustesse ?
- 9 - Garak: A Framework for Security Probing Large Language Models
- 10 - PyRIT: Framework for Security Risk Identification and Red Teaming in Generative AI System
