最近、インターネット上でOpenAIがオープンソースモデルシリーズ「GPT-OSS」(GPT Open Source Software)を発表するという重大な情報漏洩が流出し、業界で広く注目を集めている。リークされた設定ファイルによると、このオペレーティングシステムシリーズのモデルパラメータ規模は20億から120億に及ぶ。MoE(Mixture of Experts)アーキテクチャを採用し、長文処理と効率的なアテンションメカニズムを組み合わせ、非常に強力な性能の可能性を示している。AIbase編集チームは最新情報を統合し、GPT-OSSの技術的特徴とAI業界への潜在的な影響について詳しく解説する。

MoEアーキテクチャの突破: 116億のスパースパラメータを持つ強力なエンジン GPT-OSSシリーズモデルは、Mixture of Experts(MoE)Transformerアーキテクチャを採用しており、36層、128エキスパート、Top-4ルーティング機構を備え、総スパースパラメータは116億に達する。この設計により、計算タスクを複数のエキスパートモジュールに割り当てることで、計算リソースの消費を大幅に削減しながらも、モデルの高性能を維持している。従来の密接なモデルと比較して、MoEアーキテクチャによりGPT-OSSはより幅広いハードウェア環境で動作でき、オープンソースコミュニティや開発者にとって大きな柔軟性を提供する。

image.png

超大規模なパラメータ: 合計で116億のスパースパラメータを持ち、アクティブパラメータはわずか5.1億にとどまり、効率的な計算と強力な性能のバランスを確保している。

柔軟なデプロイ: MoEアーキテクチャにより、高性能GPUクラスターへの依存度が低下し、中小チームでもこのモデルを使用して開発が可能になる。

長文拡張機能: 131k Tokensの驚異的な能力 GPT-OSSは、文脈処理能力において大きな進歩を遂げた。初期の文脈長は4096 Tokensであり、RoPE(Rotary Position Embedding)技術によって約131k Tokensまで拡張されている。この長文能力により、モデルは超長文ドキュメントや複雑な会話シナリオを処理できるようになり、学術研究、法務分析、大規模コード生成など、高スループットのシナリオに適している。

また、モデルはスライディングウィンドウアテンションメカニズム(Sliding Window Attention)を採用しており、ウィンドウサイズは128 Tokens、GQA(Grouped Query Attention)技術と併用することで、各TokenあたりのKVキャッシュ占用は約72KBとなる。この設計により、メモリコストが顕著に削減され、同時に効率的な並列処理能力を維持しており、長文処理に対して優れた性能保証を提供する。アテンションメカニズムの最適化: 64ヘッドのGQAと高スループット性能 GPT-OSSのアテンションメカニズムも注目に値する。

モデルには64個のアテンションヘッドがあり、それぞれのヘッド次元は64である。GQA技術を活用することで、計算効率がさらに最適化されている。従来のマルチヘッドアテンションと比較すると、GQAはグループごとのクエリによる計算複雑性の削減と、より広いアテンションプロジェクション(隠れ次元よりも広い)によるモデル容量の増強により、特に高スループットと低遅延が必要なシナリオ、例えばリアルタイム翻訳、コード補完、長文生成に適している。

パフォーマンス上の利点: GQAとスライディングウィンドウの組み合わせ: KVキャッシュのメモリ使用量を大幅に削減し、デコード効率を向上させる。

NTK RoPEサポート: 非一様な時間感知RoPE拡張により、長文シナリオでの位置符号の安定性を確保する。

高スループット最適化: モデルはデコード側で優れたKVコストと並列特性を持ち、大規模な生産環境に適している。

オープンソース戦略の転換: OpenAIが再びオープンの原点に戻るのか? OpenAIがGPT-OSSをオープンソース化するという噂は、その戦略の重要な転換と見られている。近年、モデルの閉鎖性を強化してきた企業として、この行動はオープンソースコミュニティの長期的な期待への対応であり、MetaやMistralなどの競合企業がオープンAI分野で強力な勢力を維持していることへの対抗策である可能性がある。リーク情報によると、GPT-OSSシリーズにはいくつかのバージョン(例: 20億および120億パラメータモデル)が含まれており、OpenAIが異なるニーズに対応するモデルファミリーを構築しようとしていることが示されている。これにより、開発者にはより多くの選択肢が提供される。

しかし、リークされた設定ファイルは議論を引き起こしている。一部の開発者は、116億のパラメータを持つMoEモデルが理論的には強力だが、実際の運用には高性能なハードウェアが必要であることを指摘している。例えば、120億パラメータモデルを動かすには最大で1.5TBのメモリが必要であり、一般の開発者にとっては依然として大きな課題である。OpenAIはこれらのリーク情報の真偽を正式に確認していないが、業界ではGPT-OSSの公開がAIエコシステムに深い影響を与えると考えられている。

AIbaseの見解:

GPT-OSSの潜在的な影響と課題 GPT-OSSのリーク情報は、OpenAIがオープンソース分野における新しい試みを示しており、そのMoEアーキテクチャ、長文拡張機能、効率的なアテンションメカニズムは次の世代のAIモデルの技術トレンドを示している。計算のハードルを下げ、メモリ使用を最適化することで、GPT-OSSは中小規模の開発者や研究機関に多くのイノベーションの機会を提供するだろう。しかし、モデルの高いハードウェア要件や完全に公開されていないトレーニング詳細は、その普及度を制限する可能性がある。今後、OpenAIがオープンソースと商業化戦略のバランスをどのように取るか、またモデルの実際のデプロイ効果をどのように最適化するかが、業界の注目を集める焦点となる。

結論