ChatGPTの訓練データ漏洩リスク

Google DeepMindの研究によると、簡単なクエリ攻撃によって、ChatGPTが訓練データの漏洩リスクを抱えていることが明らかになりました。

整合性設定が施されていたとしても、攻撃チームは本番環境のモデルを突破することに成功し、プライバシーとセキュリティへの懸念を改めて浮き彫りにしました。

開発者には、モデルのプライバシーと保護を強化し、より包括的なテストを実施して、大規模言語モデルの安全性を確保することが推奨されます。