Apple SiliconのローカルAIエコシステムに重要なアップデート:oMLXフレームワークv0.3.9.dev2リリース。Gemma4のMTP視覚パス、DFlashエンジン、ParoQuant量子化技術を深く統合し、画像・テキストのマルチモーダル処理速度と使いやすさを大幅向上。AppleのエッジAI競争力を強化。....
テンセントが最新のコンパクトAI翻訳モデルHy-MT1.5-1.8B-1.25bitをオープンソース化。33言語と5方言、1056方向の翻訳に対応し、スマートフォンで完全オフライン動作が可能。1.25ビット量子化技術により3.3GBから大幅に圧縮され、高性能を維持。国際機械翻訳コンテストで30回の優勝実績を持つ。....
蚂蚁集团の百灵大模型が本日、Ling-2.6-flashをオープンソース化し、BF16、FP8、INT4などの量子化バージョンを提供、AI導入のハードルを低減。総パラメータ104B、活性化パラメータ7.4Bで、匿名で国際評価プラットフォームで好成績を収め、中英切り替えとコード生成に多段階最適化を実施。....
中国の第3世代超伝導量子コンピューター「本源悟空」がAI搭載能力を獲得し、量子計算とAIの融合が新段階へ。2024年1月稼働開始の72量子ビットチップ搭載機は、国産量子技術の応用生態系構築を加速。....
AI、バイオテクノロジー、量子コンピューティングなど、複数の分野を網羅した、最先端技術と革新技術に特化したプラットフォームです。
量子コンピューティングにおける誤り訂正のためのAIベースのデコーダー
AIによる量子計算支援ツール
Google
$0.7
入力トークン/百万
$2.8
出力トークン/百万
1k
コンテキスト長
Anthropic
$7
$35
200
$2.1
$17.5
$21
$105
Alibaba
$3.9
$15.2
64
-
Bytedance
$0.8
$2
128
Deepseek
$4
$12
Tencent
$1
32
Openai
$0.4
$1.75
$14
400
$525
Huawei
Chatglm
Iflytek
prithivMLmods
Olmo-3-7B-Instruct-AIO-GGUFは、Allen Institute for AIが開発したOlmo-3-7B-InstructモデルのGGUF量子化バージョンです。これは70億パラメータの自己回帰型言語モデルで、Tulu 2やUltraFeedbackなどのデータセットで教師付き微調整と直接的な嗜好最適化を行って訓練され、質問応答と指令の遵守において優れた性能を発揮します。
ubergarm
これはai-sage/GigaChat3-10B-A1.8B-bf16モデルのGGUF量子化バージョンで、高精度のQ8_0から極度に圧縮されたsmol-IQ1_KTまで、さまざまな量子化オプションを提供し、さまざまなハードウェア条件でのデプロイメントニーズを満たします。このモデルは32Kのコンテキスト長をサポートし、MLAアーキテクチャを採用し、対話シナリオに最適化されています。
DevQuasar
これは ai-sage/GigaChat3-702B-A36B-preview-bf16 モデルの量子化バージョンで、一般の人々に無料で知識を取得する手段を提供することを目的としています。このモデルは大型言語モデルで、テキスト生成タスクに特化しています。
evilfreelancer
これはai - sage/GigaChat3-10B-A1.8Bモデルの量子化バージョンで、GGUF形式を採用し、特定のllama.cppブランチのサポートが必要です。モデルは混合専門家アーキテクチャを採用し、総パラメータ数は約118億で、そのうち活性化パラメータ数は約18億です。
これはMoonshot AI技術に基づく量子化バージョンのモデルで、ビジュアル言語の理解と生成タスクに特化しており、知識の取得障壁を低くし、知識を誰もが利用できるようにすることを目指しています。
moonshotai
Kimi K2 Thinkingは月の暗面(Moonshot AI)が開発した最新世代のオープンソース思考モデルで、強力な深度推論能力とツール呼び出し機能を備えています。このモデルは混合専門家アーキテクチャを採用し、ネイティブINT4量子化をサポートし、256kのコンテキストウィンドウを持ち、複数のベンチマークテストで優れた性能を発揮します。
noctrex
これは慧慧AIモデルHuihui-MoE-60B-A3B-abliteratedのMXFP4_MOE量子化バージョンで、テキスト生成をサポートします。この量子化バージョンは特定の基礎モデルに基づいて処理され、モデルのパフォーマンスと使用体験をある程度最適化することができます。
bullpoint
GLM-4.6-AWQは、智譜AIのGLM-4.6(357B MoE)を高性能AWQ量子化したモデルで、vLLM推論用に最適化されており、本番デプロイのスループットを効果的に向上させます。このモデルは4ビット量子化技術を採用しており、高精度を維持しながら顕著にVRAM使用量を削減します。
amd
Llama-3.1-8B-onnx-ryzenai-npuは、AMDがMetaのLlama-3.1-8Bモデルをベースに開発した最適化バージョンで、AMD Ryzen AI NPU向けに最適化されたデプロイが行われています。このモデルは、Quark量子化、OGAモデルビルダー、およびNPU専用の後処理技術を通じて、高品質なテキスト生成能力を維持しながら、AMDハードウェア上での推論効率を大幅に向上させています。
geoffmunn
これはQwen/Qwen3-0.6B言語モデルのGGUF量子化バージョンで、6億のパラメータを持つコンパクトな大規模言語モデルで、低リソースデバイスでの超高速推論用に設計されています。llama.cpp、LM Studio、OpenWebUI、GPT4Allなどのフレームワークをサポートし、どこでもオフラインでプライベートAIを使用できます。
mradermacher
ConfTuner-MinistralはMistralアーキテクチャに基づく量子化大規模言語モデルで、信頼性の高いAIシナリオに特化して微調整され、テキスト生成と信頼度推定機能をサポートしています。このモデルは複数の量子化バージョンを提供し、異なるリソース制約環境に適しています。
これは liushiliushi/ConfTuner-Ministral モデルの静的量子化バージョンで、テキスト生成と信頼度推定タスクに適しています。このモデルはMistralアーキテクチャに基づいており、信頼できるAI出力を提供するように微調整されており、さまざまな量子化レベルをサポートして異なるハードウェア要件を満たします。
nvidia
NVIDIA Qwen2.5-VL-7B-Instruct-FP4は、アリババのQwen2.5-VL-7B-Instructモデルの量子化バージョンで、最適化されたTransformerアーキテクチャを採用し、マルチモーダル入力(テキストと画像)をサポートし、さまざまなAIアプリケーションシナリオに適しています。このモデルはTensorRT Model Optimizerを使用してFP4量子化され、NVIDIA GPU上で効率的な推論性能を提供します。
NVIDIA Qwen3-32B FP4モデルは、アリババのQwen3-32Bモデルの量子化バージョンで、最適化されたTransformerアーキテクチャを使用し、重みと活性化関数をFP4で量子化しています。AIエージェントシステム、チャットボット、RAGシステムなどのAIアプリケーションに適しています。
NVIDIA Qwen3-32B FP4モデルは、アリババクラウドのQwen3-32Bモデルの量子化バージョンで、最適化されたTransformerアーキテクチャを使用し、重みと活性化をFP4データ型に量子化することで、効率的な推論を実現します。このモデルは、商用および非商用用途をサポートし、さまざまなAIアプリケーションシナリオに適しています。
これはNVIDIAがアリババのQwen3-14BモデルをFP8で量子化したバージョンで、最適化されたTransformerアーキテクチャを採用し、131Kのコンテキスト長をサポートし、さまざまなAIアプリケーションシナリオに適しています。
NVIDIA Qwen3-14B FP4モデルは、アリババのQwen3-14Bモデルの量子化バージョンで、FP4データ型を用いて最適化され、TensorRT-LLMによる効率的な推論が可能です。このモデルはNVIDIA GPU加速システム向けに設計されており、AIエージェントシステム、チャットボット、RAGシステムなどの様々なAIアプリケーションシーンに適しており、世界中での商用および非商用利用がサポートされています。
NVIDIA Qwen3-8B FP4モデルは、アリババのQwen3-8Bモデルの量子化バージョンで、最適化されたTransformerアーキテクチャを採用した自己回帰型言語モデルです。このモデルはFP4量子化技術を使用し、パフォーマンスを維持しながらメモリ使用量と計算要件を大幅に削減し、AIエージェントシステム、チャットボット、RAGシステムなどのアプリケーションシナリオに適しています。
anikifoss
これはMoonshot AIのKimi-K2-Instruct-0905モデルの高品質量子化バージョンで、HQ4_K量子化方法を採用し、推論性能を特別に最適化し、75000のコンテキスト長をサポートし、テキスト生成タスクに適しています。
本プロジェクトは、騰訊の混元-MT-7B大規模言語モデルの量子化バージョンを提供します。モデル圧縮技術を通じて計算と記憶の要件を削減し、知識をすべての人に利用可能にすることを目指し、高性能なAIモデルをより普及させ、使いやすくします。
Smart TreeはRustをベースに開発された超高速のディレクトリ可視化ツールで、従来のtreeコマンドよりも10~24倍高速で、AI最適化出力、量子圧縮、スマート検索などの機能を備えており、同時に環境保護と省エネにも配慮しています。
量子場計算モデルに基づくClaudeマルチインスタンス協調推論サーバー。場の一貫性最適化により、強化されたAI推論能力を実現します。
mcp - serverに基づくプロジェクトで、AI大規模モデルがspinqの量子計算ハードウェアリソースを効率的に呼び出すことをサポートします。WindowsとmacOS用のワンクリックインストールスクリプトを提供し、Python環境を自動検出して依存パッケージをインストールします。