Risco de Vazamento de Dados do ChatGPT

Uma pesquisa da Google DeepMind revelou que o ChatGPT apresenta um risco de vazamento de dados de treinamento por meio de ataques de consulta simples. Mesmo com configurações de alinhamento, a equipe de ataque conseguiu quebrar o modelo de produção, destacando a preocupação com a privacidade e a segurança.

Recomenda-se que os desenvolvedores fortaleçam a privacidade e a proteção do modelo, realizando testes mais abrangentes para garantir a segurança dos modelos de linguagem de grande porte.