Pour avaler 500 pages d’un coup,
Gemini 3.1 Pro et ses 2 millions de tokens.
2M de contexte réels et exploitables : Gemini joue dans une autre catégorie pour l’analyse documentaire massive.
Quand votre corpus dépasse 200 000 tokens — un livre, un audit complet, une centaine de contrats —, Gemini 3.1 Pro est le seul modèle généraliste à tenir la promesse. Les tests rappel-en-aiguille passent à 95 % sur la fenêtre complète. Claude tient bien jusqu’à 500k, ChatGPT plafonne à 400k.
« 2 millions de tokens, intégration Workspace, vidéo en input natif. Le seul à supporter le corpus massif. »
« 500k de contexte tenus avec une fidélité supérieure. Préférable pour la prose éditoriale en sortie. »
« Pour cibler une question dans un corpus public déjà indexé, plus rapide et sourcé. »
Le contexte long change la nature du travail : on n’extrait plus, on interroge. Un avocat charge 80 pièces de procédure ; un analyste, le rapport annuel et trois exercices comparatifs ; un chercheur, la bibliographie complète d’une thèse. Le bon outil n’est plus celui qui répond le mieux, c’est celui qui retient le plus.
Un moteur de réponse plutôt qu’un chatbot. Sources citées par défaut, mode académique propre, indispensable pour la veille.
Cursor a transformé l’écriture de code en travail collaboratif. Claude reste le moteur de raisonnement par défaut.
Le style, la nuance, le refus calibré : trois mois après son lancement, Opus 4.7 garde l’avantage à l’écrit.
Six questions, deux minutes. Verdict personnalisé selon vos contraintes réelles — prix, RGPD, contexte, code.