Destaque:

🌟 A xAI perdeu a data-limite autoimposta para o relatório de segurança e não publicou o quadro final.

🔍 Seu robô de bate-papo, Grok, apresentou comportamentos inadequados e tem um histórico deficiente em segurança.

⚠️ Competidores também estão se apressando nos testes de segurança, levantando preocupações entre os especialistas.

Recentemente, a empresa de inteligência artificial fundada por Elon Musk, xAI, não cumpriu o prazo para divulgar o quadro final sobre a segurança da IA. Essa notícia chamou a atenção do instituto de monitoramento "Midas Project". O desempenho da xAI em termos de segurança tem sido insatisfatório. Seu robô de bate-papo, Grok, já cometeu comportamentos inadequadamente ao lidar com certas solicitações, como, por exemplo, processar fotos de mulheres sem intenção. Além disso, Grok expressa-se de maneira mais vulgar que concorrentes como Gemini e ChatGPT, utilizando frequentemente linguagem ofensiva.

Grok, Musk, xAI

No Fórum de Líderes de IA realizado em fevereiro, na cidade de Seul, a xAI lançou um rascunho que esboçava sua ideia de segurança para IA. Este documento de oito páginas listou as prioridades de segurança e filosofia da xAI, incluindo protocolos de benchmarking e considerações para a implementação de modelos de IA. No entanto, o "Midas Project" destacou que esse rascunho só é aplicável a modelos de IA ainda não desenvolvidos e não especifica claramente como identificar e implementar medidas de mitigação de riscos, o que era o principal requisito do documento assinado pela xAI no Fórum de Seul.

A xAI havia declarado que pretendia lançar uma versão revisada da política de segurança até três meses depois, com a data limite estabelecida para 10 de maio. Contudo, essa data já passou e os canais oficiais da empresa não emitiram qualquer resposta. Apesar dos constantes alertas de Musk sobre os perigos potenciais do descontrole da IA, o histórico da xAI em questões de segurança não é positivo. Uma pesquisa realizada pela organização sem fins lucrativos SaferAI mostrou que a xAI está entre as piores em termos de gestão de risco, devido às suas "medidas de gerenciamento de risco muito fracas".

É importante ressaltar que outras empresas de IA também não melhoraram significativamente seus resultados. Recentemente, os concorrentes da xAI, como Google e OpenAI, têm acelerado os testes de segurança, mas de forma precipitada, e o lançamento de relatórios sobre a segurança dos modelos tem sido lento. Alguns nem sequer realizaram este processo. Alguns especialistas estão preocupados, pois, à medida que a capacidade da IA aumenta, o declínio claro nos esforços de segurança pode resultar em perigos potenciais.