AI業界において、Together AIは最近、3億500万ドルのシリーズB資金調達を完了したと発表し、大きな注目を集めています。同社の急成長は、新しく発表された深層推論モデルDeepSeek-R1と密接に関連しています。当初の懸念とは裏腹に、多くの業界専門家は、深層推論の進歩がインフラストラクチャへの需要を低下させるどころか、むしろ高めていると考えています。

GPUチップ (2)

画像出典:AI生成画像、画像ライセンス提供元Midjourney

2023年の設立以来、Together AIは企業によるオープンソースの大規模言語モデル(LLM)の利用を簡素化することに取り組んでいます。時とともに、同社はプラットフォームを拡張し、「Togetherプラットフォーム」と呼ばれるソリューションを提供するようになりました。これは、仮想プライベートクラウドとオンプレミス環境の両方でAIを展開することをサポートします。2025年には、推論クラスタと自主的AI(Agentic AI)機能を追加し、プラットフォームの機能をさらに強化しました。

Together AIのCEOであるVipul Prakash氏によると、DeepSeek-R1のパラメータ数は6710億個にも上り、推論実行時のコストは無視できません。増加するユーザーニーズに対応するため、Together AIは「推論クラスタ」サービスを開始し、顧客に128個から2000個のチップによる専用計算能力を提供することで、モデルの最適なパフォーマンスを確保しています。さらに、DeepSeek-R1の要求処理時間は通常長く、平均で2~3分かかります。これもインフラストラクチャ需要の増加につながっています。

推論モデルの応用において、Together AIはコーディングエージェント、モデルの幻覚現象の低減、強化学習によるモデルの自己改善など、具体的なユースケースを確認しています。これらの応用は、作業効率の向上だけでなく、モデル出力の精度向上にもつながっています。

さらに、Together AIはCodeSandboxを買収し、自主的AIワークフローにおける能力を強化しました。この買収により、クラウド上で迅速にコードを実行し、遅延を低減し、エージェントワークフローのパフォーマンスを向上させることが可能になりました。

激しい市場競争の中で、Together AIのインフラストラクチャプラットフォームは継続的に最適化されています。次世代のNvidia Blackwellチップの導入により、モデルのトレーニングと推論のパフォーマンスと遅延の低減が期待できます。Prakash氏は、Azureなどの他のプラットフォームと比較して、Together AIの推論速度が大幅に向上し、高性能AIインフラストラクチャに対する顧客ニーズを十分に満たしていると述べています。

要点:

🌟 Together AIが3億500万ドルの資金調達を行い、深層推論モデルの発展を促進。

📈 DeepSeek-R1の複雑性により、インフラストラクチャ需要が大幅に増加し、「推論クラスタ」サービスが市場ニーズに対応。

🚀 新しく買収したCodeSandboxとNvidia Blackwellチップが、Together AIの市場競争力をさらに向上。