先日閉幕した2025年の世界人工知能開発フォーラムにおいて、AMDとOpenAIは共同で最新のAI専用GPU「Instinct MI400」および「MI350」を発表しました。このイベントには多くの業界関係者が注目し、OpenAIのCEOであるサム・アルトマン氏も直接出席し、AMDとのチップ開発プロセスにおける協力経験について語りました。
強力なAI計算性能
AMDがCDNA4アーキテクチャに基づいて開発した新しいGPUシリーズ「Instinct MI350」は、現代のAIインフラストラクチャ向けに設計されています。MI350XとMI355Xのモデル間では、AI計算パフォーマンスに大幅な向上が見られます。MI350シリーズには288GBのHBM3Eメモリが搭載されており、メモリ帯域幅は最大8TB/sに達します。これは前世代と比較してAI計算能力が4倍に増加しており、推論性能は35倍向上しています。
競合他社のNVIDIAのチップと比較すると、MI355Xは単価あたり最大40%多くのおよそトークンを処理でき、特にコストパフォーマンスが高いです。MI355XのFP4性能は161PFLOPSに達し、一方でMI350XはFP16でのパフォーマンスが36.8PFLOPSと、AIアプリケーションでの効率的な動作を保証しています。
冷却と設置の柔軟なソリューション
AMDのGPUの設計はパフォーマンスだけでなく、冷却方式にも複数の柔軟な選択肢を提供しており、大規模な設置をサポートしています。例えば、空冷式ラックでは最大64基のGPUをサポートし、直接液体冷却環境では最大128基まで対応できます。これにより、適用範囲が大幅に広がります。
オープンソースAIアクセラレーションプラットフォームROCm7
さらにGPUのパフォーマンスを高めるために、AMDはオープンソースのAIアクセラレーションプラットフォーム「ROCm7」を発表しました。1年間の開発を経てROCmは成熟し、LLaMAやDeepSeekなどの世界中の主要なAIプラットフォームと深く統合されました。ROCm7の次のバージョンでは、推論パフォーマンスが3.5倍以上向上し、AI開発者に強力な技術サポートを提供します。
次世代主要AIチップMI400
「Instinct MI400」シリーズはAMDの次世代主要AIチップであり、最大432GBの高速HBM4メモリを搭載し、メモリ帯域幅は最大300GB/sまで達します。MI400はFP4精度で40ペタフロップスの計算パフォーマンスを達成し、低精度でのAIトレーニングに最適化されています。また、MI400シリーズはUALink技術を採用し、最大72枚のGPUを無停止で接続できるようになり、従来の伝統的なアーキテクチャにおける通信ボトルネックを解消するユニファイド計算ユニットを形成します。
企業間の協力の展望
現在、Oracle、Microsoft、Meta、xAIなど複数の企業がAMDのAIチップを使用するための協力を進めています。Oracleは当初、クラウドインフラストラクチャにMI355X駆動のソリューションを採用することを計画しています。Oracleのクラウドインフラストラクチャ担当副社長であるマヘシュ・ティガラジャン氏は、AMDとの提携によりサービスのスケーラビリティと信頼性が大幅に向上したと述べており、今後さらなる協力を進めていく計画だと語りました。