Uma pesquisa do MIT revelou capacidades surpreendentes em modelos de linguagem grandes (LLMs), incluindo a capacidade de discernir entre afirmações verdadeiras e falsas, e até mesmo mudar suas "crenças". O estudo sugere que os LLMs possuem uma orientação clara para a verdade, mas que os humanos podem manipular as "crenças" dos LLMs por meio de métodos como a cirurgia neural, levando-os a aceitar afirmações falsas ou rejeitar afirmações verdadeiras.

Esta pesquisa oferece insights significativos sobre a compreensão e a veracidade dos modelos de linguagem grandes.