Google DeepMind के अनुसंधान से पता चला है कि सरल क्वेरी हमलों के माध्यम से, ChatGPT के प्रशिक्षण डेटा के लीक होने का जोखिम है। यहां तक कि संरेखण सेटिंग्स के साथ, हमलावरों की टीम ने उत्पादन स्तर के मॉडल को सफलतापूर्वक हैक कर लिया, जिससे गोपनीयता और सुरक्षा पर ध्यान देने की आवश्यकता पर जोर दिया गया। विकासकर्ताओं को सलाह दी जाती है कि वे मॉडल की गोपनीयता और सुरक्षा को मजबूत करें और बड़े भाषा मॉडल की सुरक्षा सुनिश्चित करने के लिए अधिक व्यापक परीक्षण करें।