Veille IA Veille IA sans buzz : pour stratèges québécois.
La veille

OpenAI lance une alerte suicide pour ChatGPT

OpenAI lance une alerte suicide pour ChatGPT

4 min de lecture · TechCrunch AI · Lucas Ropek · 07/05/2026 IA générative 8/10 Élevé
OpenAI lance une alerte suicide pour ChatGPT

OpenAI lance 'Trusted Contact', une fonctionnalité pour alerter un proche en cas de détection d'idées suicidaires dans les conversations ChatGPT. Cette mesure répond aux critiques après des suicides liés à l'IA.

Que faut-il retenir ?

  • OpenAI annonce 'Trusted Contact' pour alerter un tiers en cas de mentions d'automutilation.
  • La fonctionnalité permet à un utilisateur adulte de désigner un contact de confiance (ami/famille).
  • OpenAI utilise une combinaison d'automatisation et de revue humaine pour les incidents potentiellement dangereux.
  • Les alertes sont envoyées au contact de confiance par email, SMS ou notification dans l'application.

Pourquoi cette nouvelle compte-t-elle ?

Cette innovation répond à un enjeu critique de sécurité mentale dans les interactions avec l'IA. Pour les professionnels, cela démontre une prise de responsabilité d'OpenAI face aux risques psychosociaux liés à ses outils. Cela pourrait devenir une norme dans le secteur des chatbots conversationnels.

Public concerné : entreprises, grand public

Comment fonctionne le système Trusted Contact d'OpenAI ?

Le système détecte les mentions d'automutilation, notifie un humain pour vérification, puis alerte le contact de confiance désigné par l'utilisateur, sans divulguer le contenu précis de la conversation.

Commentaires (0)

💡 Aucun lien externe ni code HTML accepté. Soyez respectueux. Les commentaires sont modérés avant publication.

Aucun commentaire pour le moment. Soyez le premier !

🔐 Connexion rapide

Entrez votre courriel pour recevoir un code à 6 chiffres.

Pas besoin de mot de passe ni d'inscription. Entrez votre courriel, recevez un code par courriel, et c'est tout !