Veille IA Veille IA sans buzz : pour stratèges québécois.
La veille
MoE

MoE

Terme IA Intermédiaire

📖 Définition

Mixture of Experts (MoE) est une architecture de modèle de langage (LLM) qui divise les calculs entre plusieurs « experts » spécialisés, activés conditionnellement selon l'entrée. En 2025-2026, cette approche permet de construire des modèles très grands (centaines de milliards de paramètres) tout en maintenant une inférence efficace, car seuls quelques experts sont sollicités à la fois. MoE est largement adoptée pour réduire les coûts énergétiques et améliorer la qualité des réponses sans alourdir l'ensemble du système à chaque utilisation.

💬 En termes simples

MoE fonctionne comme une équipe de traducteurs multilingues : seul celui qui parle la langue requise intervient, évitant que tous parlent en même temps.

🔐 Connexion rapide

Entrez votre courriel pour recevoir un code à 6 chiffres.

Pas besoin de mot de passe ni d'inscription. Entrez votre courriel, recevez un code par courriel, et c'est tout !