Fenêtre de contexte
Context Window
📖 Définition
💬 En termes simples
Imaginez que vous lisez un très long roman québécois, mais que vous ne pouvez garder en mémoire que les 200 dernières pages lues. Si un personnage important a été introduit au début du livre, vous risquez de l'avoir oublié au dernier chapitre. La fenêtre de contexte fonctionne exactement ainsi pour un modèle de langage.
🎯 Exemple concret
En 2026, les modèles les plus avancés offrent des fenêtres de plus d'un million de jetons, permettant d'analyser des documents juridiques complets. Un avocat montréalais peut soumettre un contrat entier pour obtenir une analyse cohérente. Les outils de résumé exploitent des fenêtres élargies pour condenser des rapports annuels sans perdre d'informations.
💡 Le saviez-vous ?
GPT-2 (2019) disposait d'une fenêtre de 1 024 jetons, tandis que certains modèles de 2025 atteignent plus de 2 millions — une multiplication par 2 000 en six ans. Les modèles ont tendance à accorder moins d'attention aux informations situées au milieu de leur fenêtre, un phénomène surnommé lost in the middle.