大規模言語モデル(LLM)の計算力競争は、より下位で専門的なチップ領域へと深まっています。2026年2月24日、かつてグーグルのTPUで資深エンジニアを務めた人物が設立したAIチップスタートアップ企業< strong>< link-block>MatXは、< strong>5億ドル(約34.45億人民元)のBラウンド資金調達を発表しました。
今回の資金調達には、セミコンダクターの大手企業である< response-element>< link-block>世芯電子(Alchip)や< response-element>< link-block>マーベル(Marvell)などの戦略的参加に加え、多くのトップクラスの投資機関からの大規模な投資も含まれています。
< strong>コア製品:MatX One チップ
< response-element>< link-block>MatXが此次の資金調達の背骨となるのは、現在開発中の次世代プロセッサである< strong>MatX Oneです。このチップは、大規模言語モデルの推論において「高スループット」と「低遅延」を同時に実現するという課題に取り組むものです:
< strong>イノベーションアーキテクチャ:「分割可能なステュディアム配列」構造を採用しています。この設計は、大配列の最高効率と小配列の柔軟なスケジューリングを巧みに組み合わせ、ハードウェアの利用率を最大化しています。
< strong>ストレージの革新技術:MatX One は、< strong>SRAM設計の極めて低い遅延と< strong>HBM(高帯域幅メモリ)の長文処理能力を統合し、従来のアーキテクチャのストレージの限界を突破しています。
< strong>すべてのシナリオへの対応:基本的なプリフィル(Prefill)、頻繁な推理解釈、そして複雑な強化学習トレーニングなど、MatX One は業界最高レベルの性能を提供します。
< strong>ビジネスの見通し:より低いLLM使用コスト
現在の計算力市場において、トークンの生産コストを抑えることは、すべてのモデルメーカーの共通目標となっています。< response-element>< link-block>IT之家は< response-element>< link-block>MatXの公式発表を引用して、同社製品が伝統的なチップと同等あるいはそれを超えるスループット効率を実現することにより、大規模言語モデルの展開および保守の障壁を大幅に低下させることを示しています。
業界概観:AIチップの戦いが激化中
< response-element>< link-block>MatXの急成長は、世界の< response-element>< link-block>AIチップブームの一例です。最近では業界内での動きが頻繁です:
< strong>< link-block>SambaNovaは、第5世代のRDUチップを発表し、インテルとの深い協力を締結しました。
< strong>< link-block>Positronは、Asimovチップを発表し、1ワットあたりの効率がNVIDIAのRubinアーキテクチャの5倍になると主張しています。
< strong>国内の進歩:中国の研究チームは、コストが1ドル未満の< strong>フレキシブルAIチップを開発し、4万回の折り曲げに耐えられることが確認され、ウェアラブルAIハードウェアの新たな可能性を示しています。


