OpenAI anunció recientemente que no adoptará a gran escala las unidades de procesamiento de tensores (TPU) de Google, a pesar de haberlas probado en una etapa inicial. Las TPU son chips ASIC personalizados diseñados por Google para tareas de aprendizaje automático, con el objetivo de acelerar el entrenamiento y la inferencia de redes neuronales. Las TPU utilizan una arquitectura basada en flujo de datos, lo que permite cálculos eficientes de multiplicación de matrices, reduciendo así la latencia del acceso a la memoria.
Nota de crédito de la imagen: la imagen fue generada por IA, el proveedor de licencias es Midjourney
OpenAI indicó que continuará dependiendo de las tarjetas gráficas (GPU) de NVIDIA y de los aceleradores de inteligencia artificial de AMD para respaldar el entrenamiento e inferencia de sus modelos. Esto se debe a que los productos de estas dos empresas ya han sido validados y OpenAI tiene acuerdos de suministro con ellas. Aunque algunos medios informaron que OpenAI ha comenzado a utilizar chips de inteligencia artificial de Google en ciertas tareas, fuentes cercanas señalaron que estos son solo TPU de menor rendimiento, mientras que los últimos chips de Google, diseñados específicamente para su modelo de lenguaje grande Gemini, seguirán siendo utilizados internamente.
La colaboración entre OpenAI y Google Cloud satisface sus necesidades más amplias de infraestructura, pero la empresa afirmó claramente que no transferirá una gran cantidad de capacidad computacional a la plataforma TPU a corto plazo. Los inversores y analistas habían considerado anteriormente la posible cooperación con TPU como una señal de que OpenAI busca alternativas a NVIDIA, y los estrategas de Morgan Stanley incluso creyeron que este movimiento podría validar eficazmente la competitividad de los dispositivos de Google en el mercado.
No obstante, la declaración de OpenAI refleja su estrecha relación con sus socios actuales de chips, así como la complejidad de la implementación a gran escala de nuevos hardware. Dado que la demanda de potencia de cálculo para la inteligencia artificial sigue aumentando, OpenAI parece preferir expandirse gradualmente sobre la base de una prueba mixta actual de GPU-TPU, en lugar de pasar completamente a una arquitectura TPU. Esta estrategia de chips transmite un mensaje al mercado, indicando que NVIDIA y AMD seguirán siendo proveedores clave de OpenAI, lo que podría limitar el espacio de crecimiento de Google en el mercado de hardware de inteligencia artificial, aunque su tecnología TPU siga avanzando.
A futuro, los inversores estarán atentos a la próxima actualización de infraestructura de OpenAI y a los resultados financieros de Google Cloud, para captar indicios de cambios en la utilización de TPU o la diversificación de nuevos proveedores.
Puntos clave:
🌟 OpenAI suspende el uso masivo de las TPU de Google y continúa dependiendo de NVIDIA y AMD.
📈 Las TPU han pasado por pruebas iniciales, pero no tienen planes de despliegue a gran escala.
🔍 Los inversores estarán pendientes de las actualizaciones de infraestructura de OpenAI y de los resultados financieros de Google Cloud para conocer el estado de uso de las TPU.