人工知能が便利を提供する一方で、生成される偽情報は徐々に法的な境界線に近づいてきています。最近、注目を集めた中国「AI大規模モデル名誉侵害第一事件」が江蘇省南京市で最終審理の判決を受けました。

この事件の発端は、江蘇省の弁護士李小亮さんです。彼は百度(バイドゥ)傘下の「AIスマート回答」製品を使って自分自身を検索したところ、AIが生成した検索結果に「3年間の有期禁錮刑を宣告された」という深刻な悪意のある虚偽情報が含まれていることに驚きました。弁護士という職業は名誉と合規性に対して非常に高い要件を持っていますので、このような無根拠な刑事犯罪記録は李小亮さんの個人的評判とキャリアに悪影響を与えました。

この深刻な「AIによる噂」行為に対し、李小亮さんはその後、北京百度网讯科技有限公司を相手取って裁判所に提訴し、その企業に損害賠償責任を求めるようになりました。

裁判所は審理の結果、AI大規模モデルがコンテンツを生成する際には、情報の真実性と客観性を確保しなければならず、他人の名誉を損なう虚偽事実を広めることは許されないと判断しました。百度社はこのAI製品の運営者であり、生成された関連回答が李小亮さんの名誉権を侵害したものであるため、法律的な結果を負う必要があります。

南京市の最終判決によると、百度社は名誉侵害を構成していると判定されました。裁判所は被告に、判決確定後10日以内に原告の李小亮さんに書面による謝罪状を提出するよう命じました。

この事件の結論は、人工知能が生成するコンテンツの境界を明確な法的な境界線として設定し、各大規模AI開発機関に警告を発しています。アルゴリズムの推薦やAIの回答は法外の領域ではなく、開発者はモデルの能力向上を追求する過程において、出力内容の真実性の確認と合規管理を同時に強化する必要があります。