StepFun AIがオープンソース「Step-Audio-EditX」を公開。30億パラメータ音声言語モデルにより、音声編集をテキストトークンのように制御可能に。従来の波形処理を超え、arXivに論文公開(2511.03601)。....
【AI日报】では、AI分野の最新トレンドや製品を紹介。今回は、阿里雲が開源した軽量AIエージェント「通義DeepResearch」を特集。300億パラメータ(実質30億)でOpenAI並みの性能を実現。....
阿里雲の通義LabはDeepResearchをオープンソース化。300億パラメータでOpenAIと同等性能を実現。複雑な情報検索・推論タスクに優れ、128Kの長文コンテキストを処理可能。....
ラトビア企業Tildeは2025年9月3日、300億パラメータのオープンソース大規模言語モデル「TildeOpen LLM」をCC-BY-4.0ライセンスで公開。欧州の少数言語(ラトビア語、リトアニア語、ウクライナ語、トルコ語など)を重点的にサポートし、EUの言語公平性とデジタル主権の発展を促進。....
TeichAI
これはClaude Sonnet 4.5の推論データセットを基に訓練された300億パラメータの大規模言語モデルで、高難度の推論タスクに特化して最適化されており、コーディングと科学の分野で優れた性能を発揮します。
ggml-org
これはQwen3-VL-30B-A3B-Instructモデルを変換したGGUF形式のバージョンで、llama.cpp用に最適化されています。このモデルは300億パラメータのマルチモーダル視覚言語モデルで、画像理解とテキスト生成タスクをサポートします。
noctrex
P1 - 30B - A3Bは300億パラメータの大規模言語モデルで、MXFP4_MOE量子化処理を経て、モデルの性能を維持しながら推論効率を最適化し、テキスト生成タスクに適しています。
mradermacher
これはPRIME-RL/P1-30B-A3Bモデルの静的定量化バージョンで、300億パラメータの大規模言語モデルで、物理、強化学習、コンテスト推論などの分野に特化して最適化されており、英語と多言語処理をサポートしています。
mlx-community
これはQwen3-VL-30B-A3B-Instructモデルの4ビット量子化MLX形式のバージョンで、mlx-communityによって変換および維持されています。このモデルは300億パラメータのマルチモーダル視覚言語モデルで、画像理解とテキスト生成タスクをサポートします。
Mungert
通義深度研究30Bは300億パラメータを持つ大規模言語モデルで、長周期、深度情報検索タスクに特化して設計されています。このモデルは複数の知能検索ベンチマークテストで優れた成績を収め、革新的な量子化手法を用いて性能を向上させ、知能事前学習、監督微調整、強化学習をサポートしています。
radicalnumerics
RND1は実験的な拡散言語モデルで、300億のパラメータを持ち、疎なエキスパート混合アーキテクチャを採用しています。このモデルは事前学習された自己回帰ベースモデルから変換され、拡散ベースのテキスト生成をサポートしており、各トークンで300億のパラメータのみがアクティブ化され、計算効率とモデル容量のバランスを取っています。
tensorblock
これはunsloth/Qwen3-30B-A3B-Instruct-2507モデルのGGUF形式のバージョンで、TensorBlockが提供するマシンで量子化処理されています。このモデルは300億パラメータの大規模言語モデルで、指令追従タスクに特化して最適化されており、中国語や英語などの複数の言語をサポートしています。
TildeAI
TildeOpen LLMは、オープンソースの基礎言語モデルであり、代表されにくい北欧および東欧の言語をサポートするために特別に設計されています。このモデルは欧州委員会によって資金提供され、LUMIスーパーコンピュータ上で訓練され、300億のパラメータを持ち、既存のAIシステムにおいて19種類の重点言語の使用者が直面する性能の格差問題を解決します。
これはQwen3-Coder-30B-A3B-InstructモデルのGGUF量子化バージョンで、TensorBlockによって提供されています。このモデルは300億パラメータの大規模言語モデルで、コード生成とプログラミングタスクに特化して最適化されており、複数のプログラミング言語と開発シナリオをサポートしています。
Gallardo994
これはQwen3-Coder-30B-A3B-InstructモデルのMLX形式への変換バージョンで、Apple Siliconチップ向けに特別に最適化されており、300億パラメータの大型コード生成モデルで、複数のプログラミング言語のコード生成と理解タスクをサポートします。
lmstudio-community
Qwen3-30B-A3B-Instruct-2507はQwenをベースにした300億パラメータの指令微調整モデルで、Apple Siliconデバイス向けにMLX 4ビット量子化最適化が行われ、効率的なテキスト生成タスクに適しています。
Qwen3-30B-A3B-Instruct-2507はアリババの通義千問チームが開発した300億パラメータの大規模言語モデルで、命令追従タスクに特化して最適化されています。このモデルは、テキスト生成や対話インタラクションなど、様々な自然言語処理タスクをサポートし、LM Studioコミュニティモデルプロジェクトを通じて開発者に提供されています。
DevQuasar
Qwen3-30B-A3B-abliterated は Qwen アーキテクチャに基づく300億パラメータの大規模言語モデルで、テキスト生成タスクに特化しています。
stepfun-ai
Step-Video-T2Vは300億のパラメータを持ち、最大204フレームのビデオを生成できる最先端のテキストからビデオを生成する事前学習モデルです。
inceptionai
Jaisシリーズはアラビア語に最適化されたバイリンガル大規模言語モデルで、強力な英語能力も備えています。30B-16Kバージョンは300億のパラメータを持ち、16,384トークンのコンテキスト長をサポートします。
upstage
SOLAR-10.7Bは107億パラメータを持つ大規模言語モデルで、深度スケールアップ技術により卓越した性能を実現し、300億パラメータ以下のモデルでトップクラスの性能を発揮します。
SOLAR-10.7Bは107億のパラメータを持つ高度な大規模言語モデルで、自然言語処理タスクで優れた性能を発揮し、300億以下のパラメータ規模のモデルの中でトップクラスの性能を誇ります。
Jais-30b-chat-v1はJais-30b-v1を微調整したアラビア語と英語の対話モデルで、300億のパラメータを持ち、アラビア語に最適化されており、既存のアラビア語モデルを凌駕する性能を発揮します。
JAIS-30Bは300億パラメータのバイリンガル(アラビア語と英語)大規模言語モデルで、GPT-3アーキテクチャを基にALiBi位置埋め込み技術を採用し、アラビア語タスクで最先端の性能を達成しています。