Vulnerabilidade de Segurança na Linguagem do GPT-4

Pesquisadores da Brown University revelaram uma vulnerabilidade de segurança na linguagem do GPT-4 da OpenAI. Eles conseguiram contornar as restrições do GPT-4 usando idiomas menos comuns, com uma taxa de sucesso de até 79% no processamento de idiomas que não o inglês. Essa descoberta levanta preocupações sobre a segurança dos grandes modelos de linguagem e destaca a necessidade de incluir mais idiomas além do inglês em pesquisas futuras de segurança.

Apesar do potencial de fornecer ideias a criminosos cibernéticos, os pesquisadores defendem a necessidade de divulgar essa vulnerabilidade.