Un nuevo estudio revela graves problemas en los motores de búsqueda de IA al procesar información noticiosa. El Centro de Noticias Digitales de Columbia Journalism Review (CJR) probó ocho herramientas de IA con capacidad de búsqueda en tiempo real, y los resultados son preocupantes: más del 60% de las consultas de noticias obtuvieron respuestas incorrectas.

QQ_1741916033577.png

El estudio encontró que la tasa de error varía significativamente entre las diferentes plataformas de IA. Grok3 tuvo una tasa de error del 94%, y ChatGPT Search alcanzó el 67%. Incluso las versiones de pago, como Perplexity Pro y los servicios premium de Grok3, proporcionaron respuestas incorrectas con mayor frecuencia, y con una alta confianza. Los investigadores destacaron la tendencia general de estos modelos de IA a cometer errores con "confianza", es decir, inventar respuestas erróneas pero plausibles en lugar de admitir la falta de información confiable.

Además, el estudio reveló problemas en las citas de los motores de búsqueda de IA. A menudo apuntan a plataformas de agregación de noticias en lugar de a los sitios web de los editores originales. Más preocupante aún, algunas herramientas de IA fabrican enlaces URL inválidos, lo que impide a los usuarios acceder a las fuentes de información. Por ejemplo, más de la mitad de los enlaces citados por Grok3 en la prueba eran inválidos.

Estos problemas plantean un desafío importante para los editores de noticias. Bloquear a los rastreadores de IA podría resultar en la pérdida total de atribución del contenido, mientras que permitir el rastreo podría llevar a un uso generalizado del contenido sin generar tráfico hacia sus propios sitios web. Mark Howard, director de operaciones de la revista Time, expresó su preocupación por la transparencia y el control.

Los investigadores señalan que, dado que aproximadamente una cuarta parte de los estadounidenses ya utilizan modelos de IA como alternativa a los motores de búsqueda tradicionales, una tasa de error tan alta genera preocupación sobre la fiabilidad de la información. Este estudio corrobora un informe similar publicado en noviembre pasado, que también señaló problemas de precisión en el manejo de contenido noticioso por parte de ChatGPT. Aunque OpenAI y Microsoft reconocieron haber recibido los resultados del estudio, no respondieron directamente a las cuestiones específicas.

Puntos clave:

⚠️ La tasa de error en la búsqueda de noticias de los motores de búsqueda de IA es alarmante, con más del 60% de respuestas poco fiables.

🔗 Las herramientas de IA presentan confusión en las citas, a menudo dirigiendo a plataformas de redifusión o fabricando enlaces inválidos.

🤖 Incluso los servicios de búsqueda de IA de pago pueden proporcionar respuestas incorrectas con mayor frecuencia.