Avec le développement fulgurant de la technologie d'intelligence artificielle (IA), de plus en plus de chercheurs s'intéressent aux grands modèles linguistiques (comme ChatGPT). Récemment, un groupe de recherche de l'université d'Arizona a publié dans le préimprimé arXiv une étude intrigante, soulignant que notre compréhension actuelle de ces modèles d'IA pourrait être erronée. Ils estiment que ces modèles ne pensent ou ne raisonnent pas véritablement, mais recherchent simplement des corrélations.
Dans leur papier, les chercheurs mentionnent que bien que ces modèles d'IA génèrent souvent une série de processus intermédiaires qui semblent raisonnables avant de fournir une réponse, cela ne signifie pas qu'ils effectuent un raisonnement. Le groupe de recherche insiste sur le fait que cette personnalisation humaine des comportements des modèles d'IA pourrait entraîner une mauvaise compréhension de leur fonctionnement. Ils expliquent que le « raisonnement » des grands modèles consiste en réalité à calculer des corrélations entre données, et non à comprendre les relations causales.
Source : Image générée par une IA, avec le service d'autorisation Midjourney
Pour étayer leurs arguments, les chercheurs ont également mentionné certains modèles de raisonnement, comme DeepSeek R1, qui se sont révélés performants dans certaines tâches. Cependant, cela ne prouve pas qu'ils possèdent la capacité de penser comme un humain. Les recherches montrent qu'il n'y a aucun processus de raisonnement réel dans les sorties d'une IA. Par conséquent, si les utilisateurs perçoivent les entrées intermédiaires générées par les modèles d'IA comme des processus de raisonnement, cela pourrait induire une confiance trompeuse dans leurs capacités de résolution de problèmes.
Cette étude nous rappelle que dans une ère où nous dépendons de plus en plus des technologies IA, il est essentiel d'adopter une approche plus prudente envers leurs capacités. À mesure que nous approfondissons notre compréhension des capacités des grands modèles, les futures recherches en intelligence artificielle pourraient évoluer vers des modèles plus explicatifs, aidant ainsi les utilisateurs à mieux comprendre le fonctionnement réel de l'IA.