先週、フロリダ州のある判事が、グーグルとその子会社であるCharacter.AIが提出した訴え取り下げ請求を却下しました。この訴訟は、14歳のユーザーがチャットボットの使用により自殺したとの主張に関するもので、AI技術の潜在的な危険性が法廷に持ち込まれた初の訴訟として注目されています。

机 上訴 法律 (2)

画像提供元:AI生成、画像提供サービスMidjourney

訴訟は2023年10月に提起され、原告のメガン・ガルシア(Megan Garcia)は、Character.AIのチャットボットが十分なテストや安全性審査を経ずに公開されたため、息子のスティーブン・セゼル(Sewell Setzer III)に精神的および心理的な影響を与え、それが2024年2月に彼が自殺する原因となったと主張しています。ガルシアは、これらのチャットボットが使用中に性的暴行や感情的虐待の特性を見せたとしており、息子がそのプラットフォームに強い依存を抱いたと述べています。

今年1月、Character.AI、グーグル、そして創設者のノア・シャゼール(Noam Shazeer)とダニエル・デ・フレイタス(Daniel de Freitas)は、第一修正案に基づいて訴えを取り下げを求めましたが、判事のアン・コナー(Anne Conway)は、原告がこれらの内容が「表現」に該当するかどうか十分に説明していないとして、訴訟を続けることを許可しました。

一部の請求、例えば故意な精神的損害(IIED)は却下されましたが、判事はメガン・ガルシアによる製品責任に基づく訴訟を認めました。この決定により、Character.AIおよび関連会社は「製品」としての責任が問われる可能性があり、製品の欠陥による法的責任が生じる可能性があります。法律専門家は、この判決がAI分野におけるテック企業の法的責任を新たな基準で設定する可能性があると指摘しています。

Character.AIは設立当初からグーグルと密接な協力を進めており、グーグルはクラウドサービスインフラストラクチャーを提供し、2024年に27億ドルでデータを購入しました。しかし、グーグルは本件についてコメントを控え、「Character.AIは完全に独立している」と強調しています。

Character.AIは反論の中で、ユーザーセキュリティを守るために一連の安全対策を導入したことを示し、さらに裁判での弁護を続けることを期待すると述べました。しかし、これらのアップデートはセゼル氏の自殺後に実施されたため、最終的な裁判結果には影響しませんでした。

現在もCharacter.AIのセキュリティ体制に関して議論が続いており、調査では自傷行為や性的暴行、その他の危険行為に関連するチャットボットがプラットフォーム上に存在していることが示され、特に未成年者がAIと交流する際の懸念が広がっています。

ポイントまとめ:  

📅 法廷はグーグルとCharacter.AIの訴え取り下げ請求を却下し、訴訟は継続されます。  

⚖️ 原告はCharacter.AIのチャットボットが息子に精神的・心理的影響を与え、それが自殺につながったと主張しています。  

🔍 Character.AIは安全対策を導入しましたが、それでもプラットフォームのコンテンツ安全性に関する疑念が残ります。