マイクロソフトが画像から3DツールTRELLIS.2をオープンソース化。1枚の画像だけで、テクスチャ付きの3Dモデルをすぐに生成でき、出力は.glb形式でBlenderやUnityなどのプラットフォームと互換性があります。このツールには4Bモデルが採用されており、512³から1536³の解像度の画像処理をサポートしています。NVIDIA H100グラフィックカードで、512³のモデルを作成するには約3秒のみです。
エイレン人工知能研究所は、オープンソースの動画言語モデルである Molmo2 シリーズを発表しました。このシリーズには、アリババの Qwen3 を基盤にした 4B と 8B バージョン、および Ai2Olmo を基盤とした完全なオープンソースの 7B バージョンが含まれており、トレーニングデータも公開され、そのオープンソースへのコミットメントが示されています。
NVIDIAの小規模モデルNVARCが、ARC-AGI2評価で27.64%の成績を達成しGPT-5Proを上回った。単一タスクコストは20セントと競合の7ドルを大幅に下回り、コストパフォーマンスに優れる。これは大規模汎用データセットに依存しない独自のゼロ事前学習深層学習手法による成果である。....
ステップスターは初めてのオープンソースのGUIスマートエージェントGELab-Zeroを発表しました。これは、即插即用(Plug-and-Play)な推論インフラストラクチャーと4B GUIエージェントモデルを含んでいます。その軽量な設計により、コンシューマー向けハードウェアでのローカル実行が可能で、低遅延の応答を実現し、ユーザープライバシーを保護します。効率的で使いやすいスマートエージェント体験を提供します。
Alibaba
$0.3
入力トークン/百万
-
出力トークン/百万
32
コンテキスト長
Google
$140
$280
$0.14
$0.28
131
John1604
Qwen3 VL 4B Thinkingは、画像からテキスト、テキストからテキストへの変換をサポートするマルチモーダルモデルで、4Bのパラメータ規模を持ち、様々な画像とテキストの相互作用のニーズを満たすことができます。
MaziyarPanahi
このプロジェクトでは、Qwen3-4B-Thinking-2507モデルのGGUF形式のファイルを提供しています。これは、思考過程推論能力を持つ4Bパラメータの大規模言語モデルで、複数の量子化バージョンをサポートし、さまざまなハードウェアでのデプロイと実行が容易です。
Intel
DeepMathは40億パラメータの数学推理モデルで、Qwen3 - 4B Thinkingをベースに構築され、微調整された大規模言語モデルとサンドボックス化されたPython実行器を組み合わせています。これは計算ステップに対して簡潔なPythonコード断片を生成し、エラーを大幅に減らし、出力長を短縮します。
TeichAI
このモデルはQwen3 - 4Bアーキテクチャに基づく知識蒸留モデルで、Gemini 2.5 Flashによって生成された約5440万個のトークンを使用してトレーニングされ、Gemini - 2.5 Flashの振る舞い、推論プロセス、知識を単一のデータセットに統合することを目的としています。
magiccodingman
これはQwen3 4B Instructモデルに基づく混合量子化バージョンで、MXFP4と混合重み技術を採用し、ほぼ無損失な精度を維持しながら、より小さなファイルサイズとより高い推論速度を実現しています。
これはQwen3 4Bモデルに基づく混合量子化バージョンで、MXFP4_MOE混合重み技術を採用し、ほぼ無損な精度を維持しながら、より小さなファイルサイズとより高い推論速度を実現しました。このモデルは、MXFP4と高精度の埋め込み/出力重みを精巧に組み合わせることで、Q8量子化に近い精度レベルを達成し、同時にQ4 - Q6レベルのスループットを備えています。
mudasir13cs
これはGoogle Gemma - 3 - 4B - ITモデルを微調整したテキスト生成モデルで、デモンストレーションテンプレートのメタデータに基づいて多様で関連性のある検索クエリを生成するために特別に設計されています。このモデルはLoRAアダプタを使用して効率的に微調整されており、構造化文書のフィールド適応型密集検索フレームワークの重要な構成要素です。
vanta-research
Scoutは、VANTA ResearchがGoogle Gemma 3 4B Instructアーキテクチャをベースに微調整した専門の言語モデルで、制約感知推論と適応型問題解決に優れており、偵察型の情報収集、システム問題分解、適応型解決策生成に長けています。
ModelCloud
これはMiniMax M2ベースモデルに基づく4bit W4A16量子化バージョンで、ModelCloudの@QubitumがGPT - QModelツールを使用して量子化しました。このモデルはテキスト生成タスクに特化して最適化されており、良好な性能を維持しながら、モデルサイズと推論リソースの要件を大幅に削減します。
Jesteban247
brats_medgemma_lightはunsloth/medgemma - 4b - itをベースにした融合モデルで、BraTSとTextBraTSデータセットでファインチューニングされ、専門的に脳部MRI解釈と放射線学的テキスト生成に使用される軽量なビジョン言語モデルです。
prithivMLmods
ドラドーネットワークサーフィンツール拡張版は、通義千問3 - 4Bをベースに微調整された関数呼び出しとインテリジェント推論モデルで、ネットワーク検索の編成、ツール強化推論、動的問題解決のために設計されています。 このモデルは、インテリジェント決定、ツール選択、構造化された実行フローにおいて優れた性能を発揮します。
MBZUAI-Paris
Frugal-Math-4Bは、数学推理を最適化した4Bパラメータの言語モデルで、強化学習検証報酬(RLVR)手法により訓練され、高い正確性を維持しながら、簡潔で検証可能な数学的解決策を生成し、推論の冗長性を大幅に削減します。
numind
NuExtract 2.0は、NuMind社が構造化情報抽出タスク用に特別にトレーニングした一連のマルチモーダルモデルです。この4BバージョンはQwen2.5-VL-3B-Instructをベースに構築されており、テキストと画像の入力をサポートし、多言語処理能力を備え、非構造化データから構造化情報を抽出することができます。
mradermacher
Zen-Eco-4B-Instructは4Bパラメータの大規模言語モデルで、指令追従とツール使用のシナリオに特化して最適化されています。本プロジェクトでは、このモデルの複数のGGUF量子化バージョンを提供し、さまざまな精度と性能要件をサポートし、さまざまなハードウェアでのデプロイと使用を容易にします。
FractalAIResearch
Fathom-DeepResearchは、2つの専用の4Bパラメータモデルで構成される高度な研究システムです。Fathom-Search-4Bは長時間の証拠検索に最適化され、Fathom-Synthesizer-4Bはオープン合成とレポート生成に使用されます。このシステムは、複数の検索集中型ベンチマークテストで最先端の性能を達成し、オープン合成ベンチマークで複数のクローズドソースの高度研究エージェントを上回っています。
wikeeyang
これは騰訊のSRPOモデルの微調整と量子化バージョンで、主に画像出力の解像度とモデルの互換性を向上させ、8bit/4bitの量子化オプションを提供し、ユーザーにより良い使用体験をもたらします。
marcelone
Qwen3 4B InstructはQwen3アーキテクチャに基づく40億パラメータの命令微調整モデルで、多言語テキスト生成タスクをサポートしています。このモデルは2ビットから32ビットまでのさまざまな量子化バージョンを提供し、ユーザーに柔軟なパフォーマンスと効率のバランスを選択させます。
mlx-community
EmbeddingGemma 300M 4bitはGoogleが開発した軽量級のテキスト埋め込みモデルで、MLXフレームワークに特化して最適化されています。このモデルは、テキストを高品質なベクトル表現に変換することができ、様々な自然言語処理タスク、特に文章の類似度計算と特徴抽出に適しています。
driaforall
これは8ビット精度のMLXバージョンのメモリエージェントモデルで、Qwen3 - 4B - Thinking - 2507をベースに訓練され、メモリシステム内の情報検索、更新、およびクリアランスタスクを専門に処理します。
これはGoogle Gemma 3 270M Instructモデルの4bit DWQ量子化バージョンで、MLXフレームワーク用に最適化されています。このモデルは指令微調整され、対話インタラクションをサポートし、4bit DWQ量子化技術を採用してメモリ使用量を削減し、Apple Siliconデバイスで効率的に動作するように設計されています。