Veille IA Veille IA sans buzz : pour stratèges québécois.
La veille

Laboratoire METR

Laboratoire METR

Laboratoire METR

Terme Avancé

📖 Définition

Le laboratoire METR (Model Evaluation & Threat Research) est un organisme indépendant à but non lucratif fondé par Beth Barnes, ancienne d'OpenAI et d'ARC Evals. Sa mission consiste à évaluer de façon rigoureuse les capacités potentiellement dangereuses des modèles d'intelligence artificielle de pointe, dits « frontier models », notamment ceux d'Anthropic (Claude), OpenAI (GPT), Google DeepMind (Gemini) et Meta (Llama). Pour ce faire, METR conçoit des batteries de tests appelées « Task Suites », composées de tâches autonomes complexes exigeant recherche, raisonnement et prise de décision agentique. L'organisation collabore étroitement avec les instituts nationaux de sécurité en IA, notamment ceux du Royaume-Uni (UK AISI) et des États-Unis (US AISI). D'ici 2026, ses évaluations devraient constituer une référence indépendante obligatoire avant le déploiement de tout nouveau modèle majeur, jouant ainsi un rôle clé dans la gouvernance mondiale de l'IA.

💬 En termes simples

C'est comme l'Office québécois de la langue française, mais pour vérifier si une IA risque de devenir trop forte… ou trop dangereuse.

🎯 Exemple concret

En 2026, avant le lancement de GPT-6, OpenAI a dû soumettre son modèle aux évaluations autonomes de METR pour obtenir le feu vert des régulateurs.

💡 Le saviez-vous ?

Saviez-vous que certaines tâches de METR simulent des scénarios où l'IA doit contourner des restrictions de sécurité, le tout sans intervention humaine ?

🔐 Connexion rapide

Entrez votre courriel pour recevoir un code à 6 chiffres.

Pas besoin de mot de passe ni d'inscription. Entrez votre courriel, recevez un code par courriel, et c'est tout !