Redditは最近、AI企業やその他のデータ収集ツールを直接ターゲットとしたデータ保護策の強化を発表しました。この動きは、ソーシャルメディアプラットフォームと人工知能業界の間に高まっている緊張関係を示しています。

Redditは、無許可のプラットフォームによる自動収集を阻止するために、robots.txtファイル(ロボット排除プロトコル)を更新する予定です。同社広報担当者は、この更新は特定の企業をターゲットにしたものではなく、「Redditを保護しつつ、インターネットの開放性を維持するため」だと強調しました。Redditは、インターネットアーカイブや研究者などの「誠実な行為者」には影響がないと述べています。

AI顔認識ロボット

画像出典:AI生成画像、画像ライセンス提供元Midjourney

この動きは、PerplexityなどのAI企業がウェブサイトのrobots.txtプロトコルを回避したという最近の報道への対応と見られます。PerplexityのCEOは、『Fast Company』誌のインタビューで、このプロトコルは「法的枠組みではない」と述べ、AI企業のデータ取得行為に関する議論を引き起こしました。

Redditの立場は明確です。自動代理を使用してプラットフォームにアクセスする企業はすべて、Redditの利用規約とポリシーを遵守し、Redditと連絡を取らなければなりません。これは、RedditがGoogleやOpenAIとのライセンス契約と同様のものをAI企業と締結したいと考えていることを示唆している可能性があります。

データアクセスに関する問題でRedditが強硬な立場をとったのは今回が初めてではありません。昨年、同社はAI企業に対しAPI使用料の徴収を開始し、一部のAI企業とライセンス契約を締結して、Redditのデータを用いたモデルのトレーニングを許可しました。これらの契約は、Redditにとって重要な収益源となっています。

Redditのこの動きは、ソーシャルメディアプラットフォームがユーザー生成コンテンツの保護と新たな収益モデルの模索とのバランスを取ろうとしていることを反映しています。AI技術の急速な発展に伴い、同様のデータアクセスに関する論争は他のプラットフォームでも発生し、データの所有権、使用権、価値配分に関するより広範な議論を引き起こす可能性があります。