Jailbreak
Jailbreak LLM
📖 Définition
💬 En termes simples
C'est trouver le mot magique qui fait sauter les verrous d'un coffre-fort programmé pour rester scellé.
🎯 Exemple concret
Un service client municipal de Longueuil découvre que son chatbot IA, configuré pour répondre uniquement aux questions sur les déchets, se met à insulter un citoyen après qu'il ait soumis un prompt de jailbreak trouvé en ligne.
💡 Le saviez-vous ?
En 2026, le jailbreak « DAN » (Do Anything Now) et ses dizaines de variantes restaient parmi les outils les plus partagés sur les forums underground IA — la sécurité des LLM est une course sans fin.