Fenêtre d'attention
Attention Window
📖 Définition
💬 En termes simples
C'est comme la surface de votre bureau de travail : plus il est grand, plus vous pouvez étaler de documents et les consulter d'un coup d'œil pour rédiger votre rapport. Si votre bureau est petit, vous devez empiler les dossiers et vous ne pouvez en consulter que quelques-uns à la fois.
🎯 Exemple concret
En 2026, un cabinet d'avocats de Montréal utilise un modèle avec une fenêtre d'un million de jetons pour analyser l'intégralité d'un contrat de fusion-acquisition de 400 pages en une seule passe. Une firme de traduction de Gatineau soumet des manuels techniques complets dans la fenêtre de contexte pour obtenir des traductions cohérentes d'un chapitre à l'autre. Un studio de création de Québec alimente un modèle avec l'ensemble du scénario d'une série télévisée afin de vérifier la cohérence narrative.
💡 Le saviez-vous ?
Le modèle GPT-2, lancé en 2019, disposait d'une fenêtre de seulement 1 024 jetons, alors que certains modèles de 2025 atteignent plusieurs millions de jetons, soit une multiplication par plus de mille en six ans. Malgré ces fenêtres immenses, les modèles retiennent mieux l'information au début et à la fin du contexte, un phénomène surnommé « lost in the middle ».