Model extraction attack (vol de modèle par interrogation)
Terme IAAvancé
📖 Définition
L'attaque par extraction de modèle vise à reconstituer un modèle d'IA propriétaire en l'interrogeant massivement via son API publique. L'attaquant collecte des milliers ou des millions de paires (entrée, sortie) et entraîne un modèle élève qui imite le comportement de l'original. Avec des techniques modernes de distillation, un attaquant peut reproduire 90 % de la performance d'un GPT-4 propriétaire pour quelques milliers de dollars d'appels API. Pour une PME québécoise qui commercialise un modèle entraîné sur ses données métier, c'est une menace de propriété intellectuelle directe — d'où l'importance du rate limiting, watermarking et détection d'anomalies.
💬 En termes simples
C'est goûter un plat 10 000 fois pour reconstituer la recette secrète sans avoir accès aux fiches du chef.
🎯 Exemple concret
Une firme québécoise de scoring assurantiel détecte un pic d'appels API anormal depuis trois IP : 8 millions de requêtes en deux semaines. Un concurrent tentait de cloner le modèle pour 4 000 $ d'appels, contre 300 000 $ pour le réentraîner.
💡 Le saviez-vous ?
En 2026, plusieurs chercheurs ont montré qu'on peut extraire l'embedding layer complet d'un modèle de fondation propriétaire pour moins de 100 $ d'appels API — la propriété intellectuelle des LLM est plus fragile qu'on le pense.
Reçois chaque semaine le meilleur de l'actualité IA, directement dans ta boîte.
Pas de pourriel, désinscription en 1 clic.
✉️
Restez informé
Recevez nos sélections d'outils et articles directement dans votre boîte courriel.
🔐 Connexion rapide
Entrez votre courriel pour recevoir un code à 6 chiffres.
Pas besoin de mot de passe ni d'inscription. Entrez votre courriel, recevez un code par courriel, et c'est tout !
✓
Paramètres de confidentialité
Nous utilisons des témoins (cookies) pour assurer le bon fonctionnement du site, analyser le trafic et personnaliser le contenu. Vous pouvez gérer vos préférences ci-dessous.
Politique de confidentialité