AI言語モデルにおける政治的偏見に関する研究

ワシントン大学、カーネギーメロン大学、西安交通大学の共同研究により、AI言語モデルに政治的偏見が存在することが明らかになりました。

研究者らは14種類のモデルをテストし、政治コンパステストを用いてモデルの政治的傾向を分析しました。その結果、OpenAIのChatGPTとGPT-4は最も左翼自由主義的なモデルと評価され、一方、MetaのLLaMAは最も右翼全体主義的なモデルと評価されました。

研究者らは、政治コンパステストが完璧な方法ではないものの、モデルの偏見を明らかにする上で役立つと指摘しています。そして、企業はこれらの偏見を認識し、より公平な製品を作るよう努力すべきだと訴えています。

この研究結果は、AI言語モデルの開発と利用において、政治的偏見に警戒し、公正で多様な表現を確保する必要があることを改めて示唆しています。