Investigadores de Microsoft y UC Berkeley han desarrollado Gorilla, un gran modelo de lenguaje basado en LLaMA que destaca en la generación precisa de llamadas a API. Gorilla supera a los modelos LLM de vanguardia, como GPT-4, al abordar el problema de las alucinaciones y adaptarse a los cambios en la documentación.

El modelo se entrenó con un conjunto de datos masivo procedente de Torch Hub, TensorFlow Hub y Hugging Face. El código, el modelo, los datos y una demostración de Gorilla están disponibles en GitHub, con planes futuros para añadir más dominios, como Kubernetes, GCP, AWS y OpenAPI.