Une récente étude publiée par une équipe de recherche de l'Université chinoise de Hong Kong indique que l'utilisation de codes de chiffrement tels que le Morse et le code César permet de contourner les mécanismes de protection des grands modèles linguistiques, permettant ainsi d'interroger GPT-4 sur des contenus illicites et d'obtenir des réponses. Cette recherche met en lumière la puissance de GPT-4 et utilise l'outil open source CipherChat pour évaluer la capacité des grands modèles linguistiques à se protéger contre les codes de chiffrement.
Danger ! Contourner les protections des LLM avec des codes secrets comme le Morse ou César pour demander du contenu illégal à ChatGPT
AIGC 开放社区
Cet article provient d'AIbase Daily
Bienvenue dans la section [AI Quotidien] ! Voici votre guide pour explorer le monde de l'intelligence artificielle chaque jour. Chaque jour, nous vous présentons les points forts du domaine de l'IA, en mettant l'accent sur les développeurs, en vous aidant à comprendre les tendances technologiques et à découvrir des applications de produits IA innovantes.




