OpenAI lance une alerte suicide pour ChatGPT
OpenAI lance 'Trusted Contact', une fonctionnalité pour alerter un proche en cas de détection d'idées suicidaires dans les conversations ChatGPT. Cette mesure répond aux critiques après des suicides liés à l'IA.
Que faut-il retenir ?
- OpenAI annonce 'Trusted Contact' pour alerter un tiers en cas de mentions d'automutilation.
- La fonctionnalité permet à un utilisateur adulte de désigner un contact de confiance (ami/famille).
- OpenAI utilise une combinaison d'automatisation et de revue humaine pour les incidents potentiellement dangereux.
- Les alertes sont envoyées au contact de confiance par email, SMS ou notification dans l'application.
Pourquoi cette nouvelle compte-t-elle ?
Cette innovation répond à un enjeu critique de sécurité mentale dans les interactions avec l'IA. Pour les professionnels, cela démontre une prise de responsabilité d'OpenAI face aux risques psychosociaux liés à ses outils. Cela pourrait devenir une norme dans le secteur des chatbots conversationnels.
Public concerné : entreprises, grand public
Comment fonctionne le système Trusted Contact d'OpenAI ?
Le système détecte les mentions d'automutilation, notifie un humain pour vérification, puis alerte le contact de confiance désigné par l'utilisateur, sans divulguer le contenu précis de la conversation.
Commentaires (0)
💡 Aucun lien externe ni code HTML accepté. Soyez respectueux. Les commentaires sont modérés avant publication.
Aucun commentaire pour le moment. Soyez le premier !