Recentemente, a plataforma de redes sociais X (anteriormente Twitter) anunciou que testará uma nova funcionalidade que permite que chatbots de inteligência artificial (IA) gerem "notas da comunidade". Essa funcionalidade vem do sistema de notas da comunidade da época do Twitter, ampliado e otimizado por Elon Musk, com o objetivo de melhorar a precisão e a transparência das informações na plataforma.

O que são notas da comunidade? Em resumo, as notas da comunidade são um projeto de verificação de fatos liderado pelos usuários. Os participantes desse projeto podem adicionar comentários a postagens específicas, ajudando a fornecer mais informações detalhadas. Essas notas precisam ser revisadas por outros usuários antes de serem publicadas. Por exemplo, se um vídeo gerado por IA não tiver sua fonte claramente indicada, as notas da comunidade podem complementar essa informação ou fornecer correções para uma postagem enganosa de um político.

Grok, Musk, xAI

Essa funcionalidade já teve certo sucesso na plataforma X e até chamou a atenção de outras plataformas de redes sociais, como Meta, TikTok e YouTube, que passaram a adotar medidas semelhantes de verificação baseada na comunidade. A Meta chegou a cancelar seu programa de verificação de fatos de terceiros e passou a depender da força dos usuários da comunidade.

No entanto, a dependência da IA para verificar fatos ainda é controversa. A IA frequentemente apresenta fenômenos de "alucinação", ou seja, cria informações imprecisas ou fictícias. Portanto, a plataforma X planeja usar sua própria tecnologia Grok e outros interfaces de API para permitir que a IA gere notas da comunidade, mas os conteúdos gerados pela IA serão submetidos ao mesmo processo de revisão que os conteúdos enviados pelos usuários, garantindo assim a precisão.

Um relatório recente aponta que a IA e os humanos devem trabalhar em conjunto, utilizando o feedback humano para melhorar a qualidade das notas geradas pela IA. A revisão humana será a última etapa antes da publicação das notas. O relatório destaca: "O objetivo não é fazer a IA dizer aos usuários como pensar, mas construir um ecossistema que permita que as pessoas tenham um pensamento crítico e compreendam melhor o mundo."

Claro que o uso da IA também não está isento de riscos, especialmente quando os usuários conseguem incorporar modelos de linguagem de terceiros (LLM). Por exemplo, o ChatGPT da OpenAI enfrentou problemas recentemente por ser muito obediente aos usuários. Se os LLM buscarem excessivamente "utilidade" em vez de precisão, podem gerar comentários totalmente inconfiáveis. Além disso, muitos comentários gerados por IA podem sobrecarregar os revisores humanos, afetando assim sua motivação.

É importante destacar que as notas da comunidade geradas pela IA ainda não estão disponíveis globalmente. A plataforma X planeja testá-las nas próximas semanas, e só considerará uma expansão em larga escala se os resultados forem positivos.