Recientemente, el equipo FAIR de Meta y los investigadores de la Universidad Hebrea de Jerusalén publicaron un nuevo estudio que muestra cómo reducir el tiempo de inferencia de los grandes modelos de lenguaje puede mejorar significativamente su rendimiento en tareas de razonamiento complejo. Los resultados del estudio indican que los modelos de IA con cadenas de inferencia más cortas tienen una precisión mejorada en un 34,5%, lo que desafía las suposiciones actuales de la industria de la IA.
Crédito de la fuente: Imagen generada por IA, servicio de autorización de imágenes Midjourney
En este estudio, los autores destacaron que cadenas de pensamiento largas no siempre conducen a una mejor capacidad de razonamiento, sino que en cambio pueden desperdiciar recursos computacionales. En el pasado, muchas empresas invirtieron grandes recursos para ampliar la capacidad computacional, esperando que la IA pudiera resolver problemas complejos mediante pasos detallados. Sin embargo, esta investigación sugiere que procesos de inferencia más cortos no solo mejoran la precisión, sino que también reducen significativamente los costos computacionales.
El equipo de investigación propuso un nuevo método llamado "short-m@k", que ejecuta varias pruebas de inferencia en paralelo y detiene los cálculos inmediatamente después de que se completen algunas de ellas. La respuesta final se selecciona mediante una votación mayoritaria de estas cadenas de inferencia más cortas. Los resultados muestran que este método puede reducir los recursos computacionales hasta en un 40% sin afectar el rendimiento. Este enfoque proporciona una guía importante para las organizaciones al implementar sistemas de inferencia de IA a gran escala, ahorrando considerablemente costos.
Además, el estudio encontró que usar ejemplos de inferencia más cortos durante el entrenamiento del modelo de IA también mejora el rendimiento del modelo. Esto contradice la suposición previa de que un razonamiento más prolongado durante el entrenamiento brinda un mejor rendimiento; en realidad, los ejemplos más breves son más efectivos.
En la industria de la IA, las empresas tienden a implementar modelos más potentes que consumen enormes recursos computacionales. Este hallazgo tiene importantes implicaciones para los tomadores de decisiones tecnológicos, quienes deben reconsiderar los métodos de cálculo utilizados para probar LLM (modelos de lenguaje grandes). El estudio demuestra que un "pensamiento" prolongado no siempre mejora el rendimiento y, en algunos casos, podría incluso resultar en un peor rendimiento.
Este descubrimiento es de gran importancia para las gigantes de la tecnología que buscan reducir los costos de cómputo y mejorar el rendimiento. En una industria orientada a la expansión, enseñar a la IA a pensar de manera más simple no solo ahorra recursos computacionales, sino que también mejora el nivel de inteligencia. En última instancia, la inteligencia artificial también se beneficia de esta antigua sabiduría: "no pienses demasiado".
Resaltado clave:
🌟 El estudio revela que simplificar las cadenas de inferencia puede aumentar la precisión del modelo de IA en un 34,5%.
💡 El nuevo método "short-m@k" puede reducir los costos de cómputo en un 40%.
📈 Usar ejemplos de inferencia cortos durante el entrenamiento mejora aún más el rendimiento de la IA, lo que contradice las suposiciones anteriores.