El reciente lanzamiento de Claude 2.1 por parte de Anthropic ha generado un gran interés. Se anuncia con una ventana de contexto de hasta 200K tokens, pero las pruebas realizadas por el experto Greg Kamradt muestran un drástico descenso del rendimiento a partir de los 90K tokens, lo que ha suscitado una controversia sobre la exactitud de estas especificaciones.
Comparado con GPT-4 Turbo, el rendimiento de búsqueda de Claude 2.1 con una longitud de contexto de 200K tokens se cuestiona. Los resultados de las pruebas sugieren que los usuarios deben tener en cuenta el impacto de la longitud del contexto en la capacidad de búsqueda de Claude 2.1, lo que ha generado un debate en la industria.