En el campo de la inteligencia artificial, una tecnología revolucionaria está surgiendo silenciosamente. Recientemente, Inception Labs anunció el lanzamiento de los modelos de lenguaje grandes de difusión (dLLMs) de la serie Mercury, una nueva generación de modelos de lenguaje diseñados para generar texto de alta calidad de forma rápida y eficiente. En comparación con los modelos de lenguaje grandes autorregresivos tradicionales, Mercury aumenta la velocidad de generación hasta 10 veces, alcanzando velocidades superiores a 1000 tokens por segundo en una tarjeta gráfica NVIDIA H100, una velocidad que antes solo se podía lograr con chips personalizados.

QQ_1740714169865.png

El primer producto de la serie Mercury, Mercury Coder, ya se ha presentado en una prueba pública. Este modelo se centra en la generación de código y muestra un rendimiento excepcional, superando a muchos modelos de optimización de velocidad existentes en varias pruebas de referencia de programación, como GPT-4o Mini y Claude3.5Haiku, además de ser casi 10 veces más rápido. Según los comentarios de los desarrolladores, el resultado de la finalización del código de Mercury es más popular; en las pruebas de C o p i l o t Arena, Mercury Coder Mini se encuentra entre los mejores en rendimiento y es uno de los modelos más rápidos.

La mayoría de los modelos de lenguaje actuales utilizan un método autorregresivo, es decir, generan tokens uno por uno de izquierda a derecha, lo que hace que el proceso de generación sea inevitablemente secuencial, con un alto costo de latencia y computación. Mercury, por otro lado, utiliza un método de generación "de grueso a fino", comenzando con ruido puro y pasando por varias etapas de "desruidificación" para refinar gradualmente la salida. Esto permite que el modelo Mercury realice el procesamiento paralelo de múltiples tokens durante la generación, lo que resulta en una mejor capacidad de razonamiento y respuestas más estructuradas.

Con el lanzamiento de la serie Mercury, Inception Labs ha demostrado el enorme potencial de los modelos de difusión en el campo de la generación de texto y código. A continuación, la empresa planea lanzar modelos de lenguaje para aplicaciones de chat, ampliando aún más las aplicaciones de los modelos de lenguaje de difusión. Estos nuevos modelos tendrán una capacidad de agente inteligente más potente, capaces de realizar planificaciones complejas y generaciones a largo plazo. Además, su alta eficiencia permite que funcionen bien incluso en dispositivos con recursos limitados, como teléfonos inteligentes y portátiles.

En general, el lanzamiento de Mercury marca un importante avance en la tecnología de inteligencia artificial, no solo mejorando significativamente la velocidad y la eficiencia, sino también ofreciendo soluciones de mayor calidad a la industria.

Presentación oficial: https://www.inceptionlabs.ai/news

Prueba en línea: https://chat.inceptionlabs.ai/

Puntos clave:

🌟 Se lanzan los modelos de lenguaje grandes de difusión (dLLMs) de la serie Mercury, con una velocidad de generación de hasta 1000 tokens por segundo.

🚀 Mercury Coder se centra en la generación de código y ofrece un rendimiento excepcional en las pruebas de referencia, superando a numerosos modelos existentes.

💡 La innovadora metodología de los modelos de difusión permite una generación de texto más eficiente y precisa, ofreciendo nuevas posibilidades para las aplicaciones de agentes inteligentes.