Eine kürzlich von einem Forschungsteam der Chinesischen Universität Hongkong veröffentlichte Studie zeigt, dass die Verwendung von Verschlüsselungsmethoden wie Morsecode und der Caesar-Chiffre die Schutzmechanismen großer Sprachmodelle umgehen kann. Dadurch ist es möglich, GPT-4 illegale Inhalte vorzulegen und Antworten zu erhalten. Die Studie demonstriert die Leistungsfähigkeit von GPT-4 und nutzt das Open-Source-Tool CipherChat, um die Fähigkeit großer Sprachmodelle zum Schutz vor verschlüsselten Nachrichten zu bewerten.
Gefährlich! Verschlüsselte Anfragen mit Morsecode, Caesar-Chiffre etc. ermöglichen illegale Abfragen bei ChatGPT
AIGC 开放社区
Dieser Artikel stammt aus dem AIbase-Tagesbericht
Willkommen im Bereich [KI-Tagesbericht]! Hier ist Ihr Leitfaden, um jeden Tag die Welt der künstlichen Intelligenz zu erkunden. Jeden Tag präsentieren wir Ihnen die Hotspots im KI-Bereich, konzentrieren uns auf Entwickler und helfen Ihnen, technologische Trends zu erkennen und innovative KI-Produktanwendungen zu verstehen.



