Anthropicは、AIモデル「Claude」を使用してブログコンテンツを書く試みを行っていましたが、先日、その公式ブログ「Claude Explains」を静かに閉鎖し、元のURLを会社のメインページにリダイレクトしました。この内容実験は約一週間で終了しました。
関係者によると、このブログプロジェクトは試験的な取り組みであり、Claudeが生成した「テクニックとコツ」に関する内容を会社のマーケティング戦略に統合することを目的としていました。人工編集チームによって監修されたこのブログは、AIがクリエイティブな執筆、コード解析、データ分析などさまざまな分野で能力を発揮する様子を示すことを意図していました。Anthropicは人類の専門家がClaudeの草稿の正確性を高めることを強調しましたが、各ブログ記事におけるAIと人間による執筆の割合については明確には開示されていませんでした。
Claude Explainsは独立したページを持ち、複雑なコードライブラリを簡素化するための技術的なトピックを中心に展開していました。しかし、TechCrunchの指摘によると、質の高いコンテンツにもかかわらず、ソーシャルメディアでの反応はそれほど良くありませんでした。ユーザーはコンテンツ生成方法に対する透明性の欠如に疑問を呈し、多くの人はこれが単なる「自動化されたコンテンツマーケティング」の試みのように感じました。
Ahrefsのデータによれば、このブログは閉鎖されるまでの約一ヶ月間に24以上の外部サイトからのリンクがありましたが、この結果は注目に値します。それでも、プロジェクトは緊急に停止されることになりました。
一部の分析では、AnthropicはClaudeの文章能力が過度に宣伝されることを懸念していた可能性があります。現在でも最先端の大規模モデルには「幻想」と呼ばれる問題があり、自信を持って生成される情報が誤っていることがあります。最近では、ブルームバーグやG/O MediaなどもAI生成コンテンツの頻繁な誤りによりPR危機に直面しています。
Anthropicは以前、「Claude Explains」が人類の専門知識とAIの協力体制の例であり、AIが専門家の役割を置き換えるものではないことを強調していました。しかし現状では、この実験はAIがコンテンツ制作の主流に進出する際の現実的な警告となりました。つまり、能力の展示だけでなく、透明性と慎重さが求められるということです。