最近、SNSでAIアーキテクチャの起源に関する論争が沸騰している。ヨーロッパ版OpenAIと称されるMistralのCEOアーソン・メンシュ氏はインタビューで、中国の強力なオープンソースモデルであるDeepSeek-V3が実際にはMistralが提案したアーキテクチャに基づいて構築されていると述べた。この発言はすぐに世界中の開発者やネットユーザーから注目され、疑問視された。

核心的な議論:「敬意」なのか、「自主的なイノベーション」なのか?

アーソン・メンシュ氏はインタビューで、Mistralが2024年初頭に初めてのスパース混合エキスパートモデル(MoE)を発表したことを明らかにした。彼はその後のDeepSeekのバージョンがその上で構築されており、「同じアーキテクチャを使用している」と語った。

しかし、厳格なネットユーザーはarXivにある元の論文を調べて疑問点を見つけていた:

発表時期が重なっている:Mixtralの論文とDeepSeek MoEの論文の発表日はわずか3日しか違いがないため、どちらが誰に影響を与えたのか判断するのが難しい。

アーキテクチャの考え方が異なる:両方ともスパース混合エキスパートシステム(SMoE)に属するが、Mixtralはよりエンジニアリングの最適化に焦点を当てているのに対し、DeepSeekはアルゴリズムにおいて深い再構築を行っている。

エキスパートの設計が異なる:DeepSeekは「細粒度エキスパート分割」と「共有エキスパート」メカニズムを導入し、汎用知識と特定知識を分離した。これはMixtralのフラットなエキスパート設計とは本質的に異なる。

技術的な逆転:誰が「時代の記録」を書いているのか?

興味深いことに、この論争はすぐに逆転した。技術専門家は、DeepSeekがMistralを参考にしたのではなく、むしろ逆の可能性があると指摘した。

アーキテクチャの逆流:2025年末に発表されたMistral3Largeがネットユーザーによって掘り出され、その下層アーキテクチャがDeepSeek-V3が採用したMLAなどの革新技術と非常に似ていた。

影響力の変化:ネットユーザーは冗談のように、Mistralが技術的優位性の喪失を取り戻すために「歴史を書き直そうとしている」と述べた。なぜなら、DeepSeekがMoEアーキテクチャのイノベーションで業界における大きな影響力を得たからだ。

AI界の「共通の進歩」なのか、「口喧嘩」なのか?

論争があるものの、メンシュ氏がインタビュー前半で述べたように、オープンソース精神の核心は「皆がお互いの成果の上にさらに進歩すること」である。

競争の激化:DeepSeekは2026年の春節の時期に向けて、より強力な新モデルの発表を目指している。

オープンソースの争い:Mistralも継続的にDevstralシリーズを更新し、オープンソースプログラミングスマートボットの頂点を再奪還しようとしている。