La veille

Fenêtre d'attention

Fenêtre d'attention

Fenêtre d'attention

Attention Window

Terme Débutant 🧠 Concepts fondamentaux

📖 Définition

La fenêtre d'attention désigne le nombre maximal de jetons (tokens) qu'un modèle de langage peut prendre en compte simultanément lors du traitement d'une requête. Elle détermine la quantité de texte que le modèle peut « voir » et mémoriser au cours d'une même conversation. Une fenêtre plus grande permet de traiter des documents longs et de maintenir le fil d'une conversation étendue. Toutefois, l'augmentation de cette fenêtre entraîne une hausse significative des besoins en mémoire et en calcul.

💬 En termes simples

C'est comme la surface de votre bureau de travail : plus il est grand, plus vous pouvez étaler de documents et les consulter d'un coup d'œil pour rédiger votre rapport. Si votre bureau est petit, vous devez empiler les dossiers et vous ne pouvez en consulter que quelques-uns à la fois.

🎯 Exemple concret

En 2026, un cabinet d'avocats de Montréal utilise un modèle avec une fenêtre d'un million de jetons pour analyser l'intégralité d'un contrat de fusion-acquisition de 400 pages en une seule passe. Une firme de traduction de Gatineau soumet des manuels techniques complets dans la fenêtre de contexte pour obtenir des traductions cohérentes d'un chapitre à l'autre. Un studio de création de Québec alimente un modèle avec l'ensemble du scénario d'une série télévisée afin de vérifier la cohérence narrative.

💡 Le saviez-vous ?

Le modèle GPT-2, lancé en 2019, disposait d'une fenêtre de seulement 1 024 jetons, alors que certains modèles de 2025 atteignent plusieurs millions de jetons, soit une multiplication par plus de mille en six ans. Malgré ces fenêtres immenses, les modèles retiennent mieux l'information au début et à la fin du contexte, un phénomène surnommé « lost in the middle ».

🔐 Connexion rapide

Entrez votre courriel pour recevoir un code à 6 chiffres.

Pas besoin de mot de passe ni d'inscription. Entrez votre courriel, recevez un code par courriel, et c'est tout !