Meta ha lanzado el modelo Llama 2-Long, que procesa textos largos sin aumentar la demanda computacional, manteniendo un rendimiento excepcional. Gracias al preentrenamiento continuo, la mejora en la codificación posicional y una estrategia de mezcla de datos, se reduce el gasto computacional hasta en un 40%. Muestra un rendimiento excelente tanto en tareas largas como cortas, incluso superando a GPT-3.5. Este lanzamiento inyecta una nueva vitalidad al campo del procesamiento del lenguaje natural.
Meta lanza el modelo Llama 2-Long, reduce en un 40% las necesidades de cálculo para textos largos

站长之家
Este artículo proviene de AIbase Daily
¡Bienvenido a la columna [AI Diario]! Aquí está tu guía diaria para explorar el mundo de la inteligencia artificial. Todos los días te presentamos el contenido más destacado en el campo de la IA, centrándonos en los desarrolladores para ayudarte a comprender las tendencias tecnológicas y conocer las aplicaciones innovadoras de productos de IA.