La empresa emergente Reflection AI, fundada hace solo un año, anunció recientemente una financiación de 2.000 millones de dólares, con una valoración de 8.000 millones de dólares. Esta valoración ha aumentado 15 veces en comparación con los 545 millones de dólares de hace siete meses. Inicialmente, Reflection AI se centraba en agentes de codificación autónomos, pero ahora tiene como objetivo convertirse en un sustituto de código abierto, desafiando laboratorios de vanguardia cerrados como OpenAI y Anthropic, y también busca ser el equivalente occidental de la empresa china de inteligencia artificial DeepSeek.

Inversión, financiación, dinero

Reflection AI fue fundada en marzo de 2024 por dos investigadores anteriores del DeepMind de Google, Misha Laskin e Ioannis Antonoglou. Laskin era responsable del modelado de recompensas del proyecto Gemini de DeepMind, mientras que Antonoglou fue co-creador del famoso sistema de inteligencia artificial para el juego de Go, AlphaGo. Esperan mostrar que los talentos destacados en inteligencia artificial pueden construir modelos de vanguardia fuera de las grandes empresas tecnológicas, gracias a su experiencia en el desarrollo de sistemas avanzados de inteligencia artificial.

Mientras tanto, Reflection AI anunció que ha atraído a un grupo de talentos destacados de DeepMind y OpenAI, y ha construido una plataforma avanzada para entrenar inteligencia artificial, comprometiéndose a hacerla accesible al público. Más importante aún, Reflection AI afirmó haber encontrado un modelo comercial escalable, que se alinea con su estrategia de inteligencia abierta.

Actualmente, el equipo de Reflection AI cuenta con aproximadamente 60 personas, principalmente investigadores y ingenieros de inteligencia artificial en infraestructura, entrenamiento de datos y desarrollo de algoritmos. Laskin reveló que Reflection AI ha obtenido un cluster de cálculo y planea lanzar un modelo de lenguaje de vanguardia basado en "trillones de tokens" durante el próximo año.

Laskin mencionó que "Mixture-of-Experts" (MoE) es una arquitectura específica que puede apoyar el entrenamiento de modelos de lenguaje grandes de vanguardia. Anteriormente, solo laboratorios de inteligencia artificial grandes y cerrados podían realizar entrenamientos a esta escala. DeepSeek logró el entrenamiento masivo de modelos mediante un enfoque abierto, convirtiéndose en pionero de otros modelos chinos como Qwen y Kimi.

"Modelos como DeepSeek y Qwen son una alerta para nosotros; si no actuamos, los estándares globales de inteligencia serán definidos por otros países", dijo Laskin. También señaló que esto coloca a Estados Unidos y sus aliados en una posición desventajosa, ya que empresas y países soberanos a menudo evitan usar modelos chinos debido a problemas legales potenciales.

La definición de "abierto" de Reflection AI se centra principalmente en el uso del modelo. Laskin enfatizó que aunque los pesos del modelo principal estarán disponibles públicamente, los conjuntos de datos completos y los procesos de entrenamiento permanecerán propietarios. Indicó que los investigadores podrán usar libremente estos modelos, mientras que los ingresos de la empresa provendrán principalmente de la demanda de grandes empresas y gobiernos nacionales al desarrollar sistemas de "inteligencia artificial soberana".

El primer modelo de Reflection AI será un modelo centrado en texto, y en el futuro tendrá capacidades multimodales. La empresa planea utilizar la financiación para obtener los recursos computacionales necesarios para entrenar nuevos modelos, con el objetivo de lanzar su primer modelo a principios del próximo año.

Resumen:

🌟 Reflection AI recaudó 2.000 millones de dólares, con una valoración de 8.000 millones de dólares, con el objetivo de convertirse en un líder en inteligencia artificial de código abierto.

🚀 Fundada por investigadores anteriores del DeepMind de Google, Reflection AI se dedica a crear un modelo comercial escalable y lanzar modelos de lenguaje de vanguardia.

🔍 Los pesos del modelo principal estarán disponibles públicamente, pero los conjuntos de datos completos y los procesos de entrenamiento permanecerán propietarios; el objetivo principal son grandes empresas y gobiernos.