Pesquisas recentes revelaram que grandes modelos de linguagem têm o problema de propagar informações falsas, especialmente ao responder a afirmações sobre fatos, conspirações e controvérsias. O estudo destaca a frequência de erros, contradições e a repetição de informações prejudiciais no ChatGPT. O contexto e a maneira como a pergunta é formulada podem influenciar o grau de "concordância" do modelo com informações falsas. Como esses modelos podem aprender informações incorretas durante seu processo de aprendizado, isso levanta preocupações sobre seus potenciais perigos.