Claude gets 1M tokens support via API to take on Gemini 2.5 Pro

1 minute de lecture

Mis à jour :

Claude 4 Sonnet : une fenêtre contextuelle étendue via API

Claude 4 Sonnet bénéficie d’une capacité de mémoire accrue, atteignant jusqu’à 1 million de tokens en contexte, mais cette fonctionnalité est actuellement réservée à son utilisation via l’API. Cette évolution représente un facteur cinq par rapport à la limite précédente, permettant à Claude de retenir l’équivalent de plus de 75 000 lignes de code ou de traiter des centaines de documents simultanément. Auparavant, la gestion de grands volumes d’informations entraînait une perte de contexte une fois la limite atteinte.

Points clés :

  • Capacité contextuelle : 1 million de tokens pour Claude 4 Sonnet via API.
  • Comparaison : Cinq fois plus que la limite précédente.
  • Applications potentielles : Analyse de bases de code complètes avec dépendances, traitement simultané de nombreux documents, développement d’agents conservant le contexte sur de multiples appels d’outils.
  • Disponibilité : Déploiement via l’API Anthropic pour les clients Tier 4 et avec des limites de débit personnalisées, avec une disponibilité plus large prévue prochainement.
  • Intégrations : Disponible sur Amazon Bedrock et prochainement sur Google Cloud Vertex AI.
  • Tarification : Ajustement des prix pour les prompts dépassant 200 000 tokens, avec une option de mise en cache des prompts pour réduire coûts et latence.
  • Versions futures : La limite d’un million de tokens sera étendue aux applications mobiles et web de Claude à une date ultérieure.
  • Limitations actuelles : Claude 4 Opus conserve les limites contextuelles précédentes en raison de son coût.

Vulnérabilités :

Aucune vulnérabilité spécifique mentionnée dans cet article.

Recommandations :

  • Pour les développeurs d’applications, exploiter la capacité contextuelle étendue pour améliorer les fonctionnalités et la gestion des informations.
  • Anticiper les ajustements tarifaires pour les prompts volumineux et considérer la mise en cache des prompts pour optimiser les coûts et la performance.
  • Suivre les prochaines annonces concernant l’extension de cette capacité aux applications grand public.

Source