Anthropic et Mythos : un modèle d'IA trop dangereux pour être publié
Anthropic a briefé l'administration Trump sur son modèle Mythos, jugé trop dangereux pour être publié. Le modèle possède des capacités de cybersécurité puissantes, et la société poursuit le gouvernement malgré leur collaboration.
Points clés
- Anthropic a briefé l'administration Trump sur son modèle Mythos, annoncé la semaine dernière.
- Mythos est considéré trop dangereux pour être publié en raison de ses capacités de cybersécurité.
- Anthropic poursuit le Département de la Défense américain après avoir été étiqueté comme un risque pour la chaîne d'approvisionnement.
- Les banques comme JPMorgan Chase et Goldman Sachs ont été encouragées à tester Mythos.
Pourquoi c'est important
Le modèle Mythos d'Anthropic représente un enjeu majeur en matière de sécurité nationale et de cybersécurité. Sa puissance potentielle et les tensions entre Anthropic et le gouvernement soulignent les défis éthiques et légaux liés à l'IA. Cela impacte directement les professionnels de la tech et de la sécurité, ainsi que les institutions financières.
Public concerné : entreprises
Pourquoi le modèle Mythos d'Anthropic est-il considéré dangereux ?
Mythos est jugé trop dangereux pour être publié en raison de ses puissantes capacités de cybersécurité, qui pourraient poser des risques majeurs en matière de sécurité nationale.
Commentaires (0)
Aucun commentaire pour le moment. Soyez le premier !