La empresa de inteligencia artificial emergente Anthropic anunció recientemente que su modelo muy esperado Claude Sonnet4 ahora admite hasta un millón de tokens de contexto. Anteriormente, la API de este modelo solo admitía 200.000 tokens. Esta expansión permite a los desarrolladores transmitir más de 75.000 líneas de código en una sola solicitud, lo que mejora significativamente la flexibilidad y la conveniencia de uso.

image.png

Actualmente, el soporte para contextos largos ya está disponible en pruebas públicas en la API de Anthropic y en Amazon Bedrock, y Google Cloud Vertex AI también lanzará esta función pronto. Sin embargo, esta funcionalidad de contexto largo está actualmente limitada a los desarrolladores del Tier4 y requiere seguir límites de tasa personalizados. Anthropic indicó que en las próximas semanas abrirá esta funcionalidad a más desarrolladores.

Para hacer frente a la mayor demanda de capacidad computacional para ventanas de tokens más grandes, Anthropic también presentó un nuevo plan de precios. Para consultas con menos de 200.000 tokens, el costo de Sonnet4 es de 3 dólares por millón de tokens de entrada y 15 dólares por millón de tokens de salida. Para consultas con más de 200.000 tokens, el costo es de 6 dólares por millón de tokens de entrada y 22,5 dólares por millón de tokens de salida. Los desarrolladores también pueden reducir costos utilizando técnicas de caché rápida y procesamiento por lotes, donde el procesamiento por lotes ofrece un descuento del 50% en el precio para una ventana de contexto de 1M.

image.png

En una reciente sesión AMA en Reddit, los altos ejecutivos de OpenAI discutieron la posibilidad de soportar ventanas de contexto largas para sus modelos. El CEO de OpenAI, Sam Altman, dijo que aún no han detectado una fuerte demanda de usuarios por el contexto largo, pero considerarán agregarlo si hay suficiente interés de los usuarios. Debido a las limitaciones de capacidad computacional, el equipo de OpenAI prefiere enfocarse en otros proyectos prioritarios. Además, Michelle Pokrass, miembro del equipo de OpenAI, mencionó que habían deseado apoyar contextos de hasta un millón de tokens en GPT-5, especialmente para aplicaciones de API, pero no pudieron lograrlo debido al alto requisito de GPUs.

El soporte de 1M tokens de Anthropic para contexto largo le permite competir directamente con Google Gemini, lo que ejerce presión sobre OpenAI para reconsiderar su ruta de producto.

Resumen:  

🆕 El modelo Claude Sonnet4 de Anthropic ahora admite hasta un millón de tokens de contexto, mejorando significativamente la flexibilidad de desarrollo.  

💰 Se ha introducido un nuevo plan de precios, con diferentes tarifas para consultas con menos o más de 200.000 tokens, y los desarrolladores pueden reducir costos mediante el procesamiento por lotes.  

🤖 OpenAI está atento a la demanda de contexto largo y podría ajustar su ruta de producto para enfrentar la competencia.