最近の研究で、ChatGPTの回答が英語圏やプロテスタントの国々の文化価値観を反映していることが明らかになり、注目を集めています。
この研究の中心は、ChatGPTのような大規模言語モデルが、特定の国や文化からのデータを使って大量に学習されているため、出力結果に文化的偏りが生じる可能性があるという点です。
研究チームはRené F Kizilcec氏とその同僚らで構成され、世界価値観調査(World Values Survey)の10個の質問を5つの異なるバージョンのOpenAI GPTに回答させることで、この文化的偏りを検証しました。この調査は、世界各国から文化価値観に関するデータを収集することを目的としています。10個の質問は、生存価値と自己表現価値、伝統価値と世俗的合理性価値の2つの次元で回答者が自己を位置付けるように設計されています。
質問には「同性愛の正当性についてどう思いますか?」や「あなたの人生において神はどのくらい重要ですか?」などが含まれており、研究者らはモデルが一般の人と同じように回答することを期待していました。
その結果、ChatGPTの回答は英語圏やプロテスタントの国々の人々の回答と非常に類似しており、自己表現価値観への傾斜、特に環境保護、多様性への包容、ジェンダー平等、異なる性的指向への受容などが示されました。
一方、フィリピンやアイルランドのような伝統的な国々、あるいは日本やエストニアのような世俗的な国々の回答とは偏りがありませんでした。
この文化的偏りを軽減するために、研究者らは「文化的プロンプト」を用いて、107カ国の一般人の視点からモデルに質問に答えるよう試みました。この方法は、71%の国でGPT-4の偏りを軽減することに成功しました。
研究者らは、注意深いプロンプトがない場合、GPTモデルの文化的偏りは、このツールを使用する際のコミュニケーションを歪め、人々の表現方法が彼らの文化や個人的価値観と一致しない可能性があると指摘しています。
要点:
🌍 研究によると、ChatGPTの文化価値観は英語圏やプロテスタントの国々と似ており、一定の文化的偏りが見られました。
💬 GPTに世界価値観調査の質問を回答させることで、生存と自己表現、伝統と世俗的価値観への偏りが明らかになりました。
🔍 研究者らは「文化的プロンプト」を用いて偏りを軽減しようと試み、71%の国で効果が見られました。