Com a eleição presidencial americana de 2024 se aproximando, a OpenAI, em um post de blog publicado na sexta-feira, apontou que o ChatGPT rejeitou mais de 250.000 solicitações para gerar imagens de candidatos políticos no mês anterior à eleição. Essas solicitações incluíam pedidos para gerar imagens do presidente eleito Trump, da vice-presidente Harris, do candidato a vice-presidente Pence, do presidente Biden e do governador de Minnesota Walz.

A OpenAI declarou no blog que o ChatGPT implementou várias medidas de segurança para recusar a geração de imagens de pessoas reais, incluindo figuras políticas. Essas proteções são particularmente importantes durante as eleições e fazem parte de um esforço mais amplo da empresa para evitar que suas ferramentas sejam usadas para fins enganosos ou prejudiciais.

Além disso, o ChatGPT também colaborou com a National Association of Secretaries of State (NASS) para direcionar perguntas relacionadas às eleições para o CanIVote.org, mantendo assim a neutralidade política. Em consultas sobre os resultados das eleições, a plataforma orienta os usuários a consultar agências de notícias como a Associated Press e a Reuters. Recentemente, a OpenAI também teve que banir uma operação de influência externa chamada Storm-2035, que tentava disseminar conteúdo político iraniano influente.

A OpenAI afirma que continuará monitorando o ChatGPT para garantir a precisão e a ética de suas respostas. Este ano, a empresa também elogiou a estrutura de políticas do governo Biden em segurança nacional e tecnologia de inteligência artificial.

Destaques:

🛡️ O ChatGPT rejeitou mais de 250.000 solicitações para gerar imagens de candidatos políticos no mês anterior à eleição.

🤖 A OpenAI implementou várias medidas de segurança para evitar a geração de imagens de pessoas reais, especialmente durante as eleições.

🌐 O ChatGPT colabora com a Associação Nacional de Secretários de Estado para manter a neutralidade política e direcionar os usuários a fontes confiáveis de informações eleitorais.