Veille IA Veille IA sans buzz : pour stratèges québécois.
La veille

Hallucination (IA)

Hallucination (IA)

Hallucination (IA)

Terme Débutant 🛡️ Sécurité et éthique

📖 Définition

Une **hallucination** en IA générative désigne une production qui paraît plausible mais qui est factuellement fausse, inventée ou non vérifiable. Le modèle ne ment pas intentionnellement — il complète son texte selon des probabilités statistiques sans accès à une source fiable. Causes : données d'entraînement incomplètes, biais probabiliste vers la cohérence narrative au détriment de la véracité, absence de mémoire à long terme. Les hallucinations sont l'une des principales limitations des LLM en mai 2026, particulièrement problématiques en domaines critiques (médecine, droit, finance).

💬 En termes simples

Imagine un étudiant brillant qui a lu beaucoup mais qui, face à une question sur laquelle il manque d'information, invente une réponse qui sonne intelligente plutôt que d'admettre qu'il ne sait pas. Le LLM fait pareil : il préfère générer une réponse cohérente plutôt que de dire 'je ne sais pas'.

🎯 Exemple concret

Un avocat américain en 2023 a soumis au tribunal un mémoire rédigé avec ChatGPT contenant 6 décisions de jurisprudence **inventées** mais formellement parfaites. Sanctionné par le juge, il est devenu le cas d'école pour expliquer pourquoi vérifier toute citation produite par une IA.

💡 Le saviez-vous ?

Anthropic a publié en 2024 une étude montrant que Claude reconnaît son incertitude dans 37% des questions difficiles plutôt que d'halluciner, contre 15% pour GPT-4 — un avantage attribué au principe Constitutional AI qui inclut explicitement 'préfère dire je ne sais pas plutôt qu'inventer'.

🔐 Connexion rapide

Entrez votre courriel pour recevoir un code à 6 chiffres.

Pas besoin de mot de passe ni d'inscription. Entrez votre courriel, recevez un code par courriel, et c'est tout !