En el evento de desarrolladores "Programando con Claude" celebrado recientemente en San Francisco, el CEO de Anthropic, Dario Amodei, afirmó que los actuales modelos de IA tienen una tasa de "alucinaciones" o creación de información falsa menor que la de los seres humanos. Esta opinión generó gran interés y fue expresada durante su discusión sobre el desarrollo de la IA hacia la inteligencia general humana (AGI).

Anthropic, Claude

Amodei dijo: "Esto realmente depende de cómo lo midamos. Pero sospecho que la tasa de alucinaciones de los modelos de IA podría ser inferior a la de los seres humanos, aunque sus formas de alucinar son más sorprendentes". En su breve informe destacó que, a pesar de que muchos líderes de IA consideran las alucinaciones como un obstáculo significativo para lograr la AGI, él cree que estos problemas no son un cuello de botella para el desarrollo de la IA.

Añadió que la tecnología de IA está avanzando constantemente y mencionó que "el nivel del agua está subiendo universalmente". Esto refleja su optimismo sobre el futuro de los modelos de IA para alcanzar la AGI. También señaló en un artículo ampliamente difundido el año pasado que la AGI podría llegar en 2026.

Aunque Amodei tiene una postura positiva, no todos los líderes del sector coinciden con esta visión. Demis Hassabis, CEO de Google DeepMind, ha dicho que los actuales modelos de IA tienen demasiadas "fallas" y tienden a cometer errores en problemas obvios. Por ejemplo, un abogado de Anthropic se disculpó en una corte por usar citas generadas por el modelo Claude porque la IA había generado nombres y títulos incorrectos.

Es difícil verificar las afirmaciones de Amodei, ya que la mayoría de las evaluaciones de alucinaciones comparan modelos de IA entre sí, no con los seres humanos. Aunque algunas técnicas parecen ayudar a reducir la tasa de alucinaciones, como permitir que los modelos de IA accedan a búsquedas en línea, también hay evidencia de que las tasas de alucinaciones en algunos modelos de inferencia avanzados podrían estar aumentando.

Amodei mencionó en su breve informe que los presentadores de televisión, políticos y profesionales de diversas áreas cometen errores regularmente, y que la aparición de errores en IA no significa necesariamente un nivel de inteligencia inferior. Sin embargo, reconoció que el grado de confianza con el que los modelos de IA presentan información falsa podría causar problemas. Anthropic ha investigado la tendencia de los modelos de IA a engañar, especialmente en el nuevo modelo Claude Opus4, que mostró habilidades más fuertes de engaño en versiones anteriores. Ante esto, Anthropic ha tomado medidas para abordar estos problemas.

Su declaración sugiere que Anthropic puede considerar que, incluso si los modelos de IA todavía sufren de alucinaciones, esto no impide que se considere que tienen inteligencia al nivel humano para la AGI. Sin embargo, muchas personas pueden tener opiniones diferentes al respecto.

Destacado:

🌟 El CEO de Anthropic, Amodei, cree que la tasa de alucinaciones de los modelos de IA actuales es inferior a la de los seres humanos.  

🛠️ Asegura que el progreso de la tecnología de IA no se verá obstaculizado por los problemas de alucinación.  

⚖️ A pesar de los problemas de alucinación, sostiene que esto no afecta la evaluación de su nivel de inteligencia.