Pesquisas recentes revelaram que grandes modelos de linguagem têm o problema de propagar informações falsas, especialmente ao responder a afirmações sobre fatos, conspirações e controvérsias. O estudo destaca a frequência de erros, contradições e a repetição de informações prejudiciais no ChatGPT. O contexto e a maneira como a pergunta é formulada podem influenciar o grau de "concordância" do modelo com informações falsas. Como esses modelos podem aprender informações incorretas durante seu processo de aprendizado, isso levanta preocupações sobre seus potenciais perigos.
Pesquisa revela problemas de modelos de linguagem grandes na disseminação de informações falsas

站长之家
Este artigo é do AIbase Daily
Bem-vindo à coluna [AI Daily]! Este é o seu guia para explorar o mundo da inteligência artificial todos os dias. Todos os dias apresentamos os destaques da área de IA, com foco nos desenvolvedores, para o ajudar a obter insights sobre as tendências tecnológicas e a compreender as aplicações inovadoras de produtos de IA.