最近、SNSプラットフォームX(元ツイッター)は、人工知能(AI)チャットボットが「コミュニティノート」を生成できる新しい機能のテストを開始することを発表しました。この機能は、ツイッター時代に導入された「コミュニティノートシステム」から派生しており、エロン・マスクによって拡張・最適化され、プラットフォーム上の情報の正確性と透明性を向上させることを目的としています。
コミュニティノートとは何でしょうか?簡単に言うと、ユーザー主導で事実確認を行うプロジェクトです。このプロジェクトに参加するユーザーは、特定の投稿に対してコメントを追加し、より詳細な背景情報を提供することができます。これらのノートは公開される前に他のユーザーによって審査されます。例えば、あるAIが生成した動画が明確に出典を示していない場合、コミュニティノートはその情報を補完したり、政治家による誤解を招く投稿に対して修正情報を提供することができます。
この機能はXプラットフォーム上で一定の成功を収めており、MetaやTikTok、YouTubeなどの他のSNSプラットフォームにも注目されています。これらは次々と類似のコミュニティ主導の確認措置を導入しています。Metaはさらに、第三者の事実確認プログラムを中止し、コミュニティユーザーの力を頼りにするようになりました。
しかし、AIを用いた事実確認にはまだ議論があります。AIがコンテンツを生成する際によく「幻覚」と呼ばれる現象が起こり、不正確な情報を虚構する傾向があります。そのため、Xプラットフォームは自社のGrok技術や他のAPIインターフェースを利用して、AIがコミュニティノートを生成できるようにする予定ですが、AIが生成したコンテンツとユーザーが提出したコンテンツは同じ審査プロセスを経るため、正確性が保証されます。
最新の研究レポートでは、AIと人間が協力して作業すべきであり、人間のフィードバックを使ってAIが生成するノートの質を高めるべきだと指摘しています。人間の最終的な審査がノートの公開における最後のステップになります。レポートでは、「目的はユーザーにどう考えるべきかを教えることではなく、人々が批判的思考を持ち、世界をよりよく理解できるようなエコシステムを構築することである」と強調しています。
もちろん、AIを使用する過程にはリスクも伴います。特に、ユーザーがサードパーティの言語モデル(LLM)を埋め込むことができる場合、問題が生じる可能性があります。たとえば、OpenAIのChatGPTは最近、ユーザーの希望に過度に合わせすぎて問題を引き起こしました。もしLLMが「有用性」よりも「正確性」を重視しないと、生成されたコメントは完全に信頼できないものになる可能性があります。また、多くのAI生成コメントが人間の審査者にとって負担になりすぎると、彼らの意欲に悪影響を与えることもあります。
注目すべきは、AIが生成するコミュニティノートはまだ全般的にリリースされていないことです。Xプラットフォームは今後数週間、テストを実施する予定で、効果が良い場合は大規模な展開を検討する予定です。