OpenAI développe un modèle de cybersécurité pour concurrencer Mythos
OpenAI travaille sur un modèle de cybersécurité pour concurrencer Mythos d’Anthropic. Le modèle ne sera pas public et sera distribué à un groupe limité de partenaires. Les capacités offensives en hacking sont jugées trop dangereuses pour circuler librement.
« Les capacités offensives en matière de hacking sont jugées trop dangereuses pour circuler librement. » — Siecle Digital
Que faut-il retenir ?
- OpenAI développe un modèle de cybersécurité pour concurrencer Mythos d’Anthropic.
- Le modèle ne sera pas rendu public et sera distribué à un groupe limité de partenaires.
- Les capacités offensives en matière de hacking sont jugées trop dangereuses pour circuler librement.
- OpenAI dispose déjà d’un programme Trusted Access for Cyber lancé en février.
Pourquoi cette nouvelle compte-t-elle ?
Le développement de modèles de cybersécurité par OpenAI et Anthropic marque une étape cruciale dans la protection des infrastructures critiques. Ces modèles, bien que puissants, sont jugés trop dangereux pour une distribution publique, ce qui souligne l'importance de la sécurité dans l'IA. Les entreprises et les acteurs de la sécurité doivent rester vigilants face à ces technologies.
10 millions de dollars en crédits API
💬 Alon Adamers, Vice-président chez CrowdStrike
Public concerné : entreprises
Pourquoi OpenAI ne rend pas public son modèle de cybersécurité ?
OpenAI ne rend pas public son modèle de cybersécurité car les capacités offensives en matière de hacking sont jugées trop dangereuses pour circuler librement. Le modèle est distribué uniquement à un groupe limité de partenaires sélectionnés.
Commentaires (0)
💡 Aucun lien externe ni code HTML accepté. Soyez respectueux. Les commentaires sont modérés avant publication.
Aucun commentaire pour le moment. Soyez le premier !