アレン人工知能研究所(AI2)は、高性能と低コストのソリューションを提供することを目的とした、オープンソースの大規模言語モデルOLMoEを発表しました。このモデルは、スパース混合専門家(MoE)アーキテクチャを採用しており、70億のパラメータを備えています。しかし、インテリジェントなルーティングメカニズムにより、各入力トークンは10億のパラメータしか使用せず、効率的な計算を実現しています。OLMoEには、汎用版と指示調整版の2つのバージョンがあり、4096トークンのコンテキストウィンドウをサポートしています。そのトレーニングデータはCommon Crawl、Dolma CC、ウィキペディアなど、幅広いソースから収集されています。
AI2は最近、3兆トークンを含むオープンソースデータセットDolmaを発表しました。Dolmaのデータは、2024年初頭にリリース予定のAI2が開発中のオープン言語モデルOLMoの基盤となります。Dolmaのデータセットは、ウェブコンテンツ、学術出版物、コード、書籍など幅広いソースから収集されており、現在公開されている同種のデータセットの中で最大規模です。
アレン人工知能研究所は、AI言語モデルの透明性とイノベーションを促進することを目的とした、オープンなテキストデータセットDolmaを発表しました。AI2のオープン言語モデル計画の中核となるDolmaは、研究者や開発者に無料のデータリソースを提供します。Dolmaデータセットは30億トークンの規模を誇り、中リスク成果のImpACTライセンスを採用しており、ユーザーは連絡先情報と使用状況を提供することが推奨されています。
allenai
Olmo 3は、Allen Institute for AIによって開発された次世代の言語モデルシリーズで、7Bと32Bの2種類の規模があり、命令型と思考型の2種類のバリエーションがあります。このモデルはDolma 3データセットで事前学習され、Dolciデータセットで事後学習され、長い連鎖的な思考能力を備えており、数学やコーディングなどの推論タスクで優れた性能を発揮します。
Olmo 3 7B RL-Zero Mixは、Allen AIが開発した7Bパラメータ規模の言語モデルで、Olmo 3シリーズに属します。このモデルはDolma 3データセットで事前学習され、Dolciデータセットで事後学習され、強化学習によって数学、コーディング、推論能力が最適化されています。
Olmo 3 32B Think SFTはTransformerアーキテクチャに基づく自己回帰型言語モデルで、長い思考連鎖推論に優れており、特に数学やコーディングなどの複雑な推論タスクを処理するのに適しています。このモデルはDolma 3データセットで事前学習され、Dolciデータセットで教師付き微調整されています。
Olmo 3は、Allen Institute for AI (Ai2)によって開発された全く新しい32Bパラメータの言語モデルファミリーで、Base、Instruct、Thinkなどのバリエーションが含まれています。このモデルはDolma 3データセットを基に訓練され、65,536の長文脈処理をサポートし、言語モデル科学の発展を推進することを目的としています。モデルは完全にオープンソースで、Apache 2.0ライセンスに従っています。
Olmo-3-7B-Think-SFTはAllen Institute for AIが開発した7Bパラメータの言語モデルで、長い連鎖的な思考能力を持ち、数学やコーディングなどの推論タスクで優れた性能を発揮します。このモデルはDolma 3データセットで事前学習され、Dolciデータセットで後続の学習が行われています。
Olmo 3は、Allen Institute for AIによって開発された全く新しい7Bパラメータの言語モデルシリーズで、Transformerアーキテクチャに基づき、Dolma 3データセットで訓練され、言語モデル科学の発展を推進することを目的としています。モデルはBase、Instruct、Thinkなどの複数のバリエーションを提供し、最大65,536の文脈長をサポートします。
amd
AMD-OLMoは、AMDによってAMD Instinct™ MI250 GPU上でゼロからトレーニングされた10億パラメータの言語モデルシリーズで、事前学習モデル、監督微調整モデル、および直接的な嗜好最適化(DPO)に基づくアライメントモデルが含まれます。このシリーズのモデルはOLMoアーキテクチャに基づいており、Dolmaデータセットで事前学習され、複数の指令データセットで微調整されています。
OLMo 7B 2024年4月版は、元のOLMo 7Bモデルのアップグレード版で、改良されたDolmaデータセットと段階的なトレーニング方法に基づいており、MMLUなどの評価で24点向上しています。これは開放透明な言語モデルで、推論と微調整タスクをサポートしています。
OLMo 7B InstructはDolmaデータセットでトレーニングされたオープン言語モデルで、SFTとDPOで最適化され、質問応答タスク向けに設計されています。