Advertencia sobre la amenaza de los modelos lingüísticos grandes a la integridad científica

Investigadores de la Universidad de Oxford advierten en un estudio reciente que los modelos lingüísticos grandes (LLMs) podrían representar una amenaza para la integridad científica. El estudio insta a un cambio en la forma en que se utilizan los LLMs, sugiriendo su empleo como "traductores de disparo cero" para asegurar la precisión fáctica de sus resultados.

Sin embargo, confiar en los LLMs como fuente de información podría comprometer la verdad científica. Por lo tanto, se hace un llamado al uso responsable de los LLMs. El estudio también advierte sobre los graves peligros que podría acarrear el uso indiscriminado de los LLMs en la generación y difusión de artículos científicos.