Anthropic はユーザーのデータ処理方法を大幅に変更しています。同社は、今から、すべての Claude ユーザーが9月28日までに自分の会話がAIモデルのトレーニングに使用されるかどうかを決定する必要があります。以前は、Anthropic は消費者のチャットデータをモデルのトレーニングに使用しないことを約束し、30日後にユーザーのプロンプトと会話の出力を自動的に削除すると発表していました。
ポリシー変更の概要
この新しいポリシーは、Claude Free、Pro、Max のすべてのユーザー、Claude Code を使用するユーザーも含むに適用されます。これは、ユーザーの会話やプログラミングセッションが現在、Anthropic のAIシステムのトレーニングに使用される可能性があることを意味します。一方で、オプトアウトしていないユーザーのデータ保持期間は5年まで延長されます。注目すべきは、Claude Gov、Claude for Work、Claude for Education またはAPIアクセスを行う企業顧客にはこのポリシーの影響がないということです。これは、OpenAI が企業顧客を保護する方法と類似しています。
Anthropic が変更した理由とは?
Anthropic はブログ記事で、「モデルの安全性を向上させ、有害なコンテンツを検出するシステムをより正確にするため」であり、将来的な Claude モデルの「コード作成、分析、推論などのスキルを向上させるため」と述べています。簡単に言うと、会社はより良いモデルを提供するためにこのような措置を取ったのです。
しかし、より深い理由としては、データへの急迫な需要が考えられます。すべての大規模言語モデル企業と同じように、Anthropic は OpenAI やグーグルなどの競合企業との競争力を高めるために、大量の高品質な対話データを必要としています。数百万回の Claude ユーザーの相互作用へのアクセスは、Anthropic にとって貴重な現実世界のコンテンツを提供することができます。
業界のデータポリシーの転換とユーザーの混乱
Anthropic のポリシーの変更は、全体的な業界のデータポリシーの広範な転換を反映しています。ますます厳格化されるデータ保持の審査に対応するため、AI企業はプライバシーポリシーを見直しています。例えば、OpenAI は現在、ニューヨークタイムズなどの出版物による訴訟により、裁判所命令によってすべての消費者ChatGPT会話を無期限に保持することを余儀なくされています。OpenAI の最高運営責任者であるブラッド・ライトカップ氏はこれを「不必要な要求」と評価し、これはユーザーに対するプライバシーの約束と矛盾していると考えています。
このような継続的な利用ポリシーの変化は、ユーザーにとって大きな混乱をもたらしています。多くのユーザーは、すでに同意した規則が静かに変更されていることに気づいていません。特に注目すべきは、新規登録ユーザーは好みの設定を選択でき、既存のユーザーは巨大な「利用規約およびポリシーの更新」ウィンドウが表示され、その横に目立つ「受け入れる」ボタンがあり、トレーニング権限のスイッチは小さく、デフォルトで「ON」に設定されていることです。The Verge が指摘したように、このようなデザインパターンにより、ユーザーが「受け入れる」を素早くクリックし、データ共有の同意オプションに気づかない可能性があります。
専門家は長年にわたり、AIの複雑さのためにユーザーからの有効な同意を得ることが異常に困難であると警告してきました。連邦貿易委員会(FTC)は、AI企業が「サービス条項やプライバシーポリシーを秘密裏に変更したり、情報開示をハイパーリンク、法律用語、細則の中に隠す」場合、法執行行動を受けることになると警告しました。しかし、FTCがこれらの慣行を依然として監視しているかどうかは、未解決の問題です。