10月16日に、百度飛槻は視覚言語モデルであるPaddleOCR-VLを発表しました。このモデルは0.9Bパラメータで、権威ある評価ベンチマーク「OmniDocBench V1.5」で92.56点を獲得し、DeepSeek-OCRなどの主流モデルを上回り、世界のOCRランキングで首位に輝きました。10月21日までに、Huggingfaceトレンドチャートの上位3社はすべてOCRモデルで、百度飛槻が1位を維持しています。
百川大モデルが医療向け大規模モデル Baichuan-M2Plus を発表し、アプリケーション「百小応」をアップグレードし API インターフェースを公開しました。評価結果によると、このモデルの医療における幻覚率は汎用的な大規模モデルよりも顕著に低く、DeepSeek と比べて約3倍低いことが判明し、米国の OpenEvidence アプリケーションよりも優れた性能を示しています。
百度文心X1.1がSuperCLUE-CPIF中国語指示実行評価で75.51点を獲得し、国産大規模モデル首位。GPT-5、DeepSeekなど10モデルを対象に、複雑な中国語指示への対応力を評価。....
AIラボnof1がAlpha Arenaを開始。HyperliquidでGPT-5やGemini2.5Proなど6モデルに1万ドルずつ与え、実取引で金融環境での意思決定とリスク管理を評価。....
世界初の深層学習を駆動するオンラインOCRツールで、97%の正確性。
AI Fiestaは、ChatGPT、Gemini Pro、Claude、Perplexity、Deepseek、Grokなどの世界トップレベルのAIモデルと交流できるプラットフォームです。
チャットボットAI製品の集合で、GPT - 4o、Gemini、Qwen、Deepseek、Claude、Grokが含まれています。
PPTDetectorは、正確にAI生成のコンテンツを検出できるAI検出器であり、ChatGPT、GPT、Gemini、Grok、Claude、Deepseekによって生成されたpptxファイルを検出できます。
deepseek
$3.6
入力トークン/百万
$15.48
出力トークン/百万
128k
コンテキスト長
minimax
-
1M
$4.03
$15.98
$3.96
$15.77
baidu
$4
$16
$0.86
$1.3
$0.72
$2.88
$2
$8
32k
$1.94
$7.92
$1.01
$2.02
4.1k
noctrex
これはDeepSeek-MoE-16B-ChatモデルのMXFP4_MOE量子化バージョンで、テキスト生成タスクに特化して最適化され、より効率的な推論ソリューションを提供します。
deepseek-ai
DeepSeek-OCRはDeepSeek AIが開発した高度な光学文字認識モデルで、視覚テキスト圧縮の限界を探求し、画像からテキスト内容を効率的に抽出および変換できます。
Thrillcrazyer
Qwen-1.5B_THIPは、DeepSeek-R1-Distill-Qwen-1.5Bをベースに、DeepMath-103k数学データセット上でTRLフレームワークを使用してGRPO方法で微調整された数学的推論モデルです。このモデルは、数学問題の解決に特化して最適化されており、強力な数学的推論能力を備えています。
moxin-org
このプロジェクトでは、DeepSeek-V3-0324に対してllama.cppの混合精度量子化を行い、モデルのエッジデバイスへのデプロイの難題を解決し、モデルの実行効率とリソース利用率を向上させました。
MikeKuykendall
これはDeepSeek社のDeepSeek - MoE - 16BモデルのQ4_K_M量子化バージョンで、llama.cppのRustバインディングを通じてMoE(専門家混合)のCPUオフロード機能が有効になっており、VRAMの使用量を大幅に削減します。
kathywu95
これはDeepSeek - V3アーキテクチャに基づくランダムウェイト生成モデルで、テストと開発目的に特化しています。モデルはランダムに初期化されたウェイトを使用し、パラメータ規模が削減されており、迅速なプロトタイプ開発と機能検証に適しています。
QuantTrio
DeepSeek-V3.2-Exp-AWQはDeepSeek-V3.2-Expモデルに基づく量子化バージョンで、vLLMフレームワークを通じて効率的なテキスト生成を実現します。このモデルはDeepSeek疎な注意力メカニズムを導入し、長文脈の訓練と推論の効率を著しく向上させると同時に、モデルの出力品質を維持しています。
トランスフォーマーライブラリは強力な自然言語処理ツールライブラリで、豊富な事前学習モデルと使いやすいインターフェースを提供し、テキスト生成、分類、翻訳などのNLPタスクに広く利用され、開発効率を大幅に向上させます。
prithivMLmods
Mintaka-Qwen3-1.6B-V3.1は、科学的推論に特化した効率的なモデルで、Qwen-1.6Bをベースに構築され、DeepSeek v3.1合成軌跡(10,000件の記録)で訓練されました。ランダムイベントのシミュレーション、論理問題の分析、構造化された科学的推論に最適化されており、記号精度と軽量デプロイのバランスを取っています。
BBQGOD
DeepSeek-GRM-16BはSelf-Principled Critique Tuning (SPCT)に基づく生成型報酬モデルで、クエリ-応答に対して透明な「原則→批判→スコア」の評価プロセスを生成し、大規模言語モデルの強化学習、評価、データ収集などのタスクに使用できます。
DeepSeek-V3.1はDeepSeek-V3.1-Baseをベースに事後学習を行った大規模言語モデルで、128Kのコンテキスト長を持ち、混合思考モード、スマートツール呼び出し、コードエージェント機能をサポートしています。このモデルは複数のベンチマークテストで優れた成績を収めており、特に数学的推論、コード生成、検索エージェントタスクで顕著な向上が見られます。
ubergarm
DeepSeek-V3.1モデルに基づくGGUF形式の量子化バージョンで、ik_llama.cppブランチを使用して最適な量子化を行います。このモデルは特定のメモリ使用量で最適な困惑度を達成し、IQ5_KからIQ1_Sまでのさまざまな量子化スキームを提供し、さまざまなメモリとパフォーマンスの要件を満たします。
bartowski
これはDeepSeek-V3.1モデルの量子化バージョンで、llama.cppのimatrix技術を使用して量子化処理を行い、さまざまなハードウェアでのモデルの実行効率とパフォーマンスを向上させることを目的としています。このバージョンでは、高品質のQ8_0から極低品質のIQ1_Mまで、さまざまな量子化レベルを提供し、さまざまなハードウェア構成とパフォーマンス要件を満たします。
mlx-community
これはDeepSeek-V3.1-Baseモデルの4ビット量子化バージョンで、mlx-lmツールを使用して変換され、Apple Siliconチップ用に特別に最適化され、効率的な大規模言語モデルの推論能力を提供します。
DeepSeek-V3.1はDeepSeekチームによって開発された大規模言語モデルで、思考モードと非思考モードをサポートし、複数のベンチマークテストで優れた成績を収め、強力なテキスト理解、生成、推論能力を備えています。
recursechat
DeepSeek - R1は大規模な強化学習によって訓練された推論モデルで、数学、コード、推論タスクで優れた性能を発揮します。教師付き微調整を必要とせずに、自己検証、反省、長い思考チェーンの生成などの強力な推論能力を示します。
yanmyoaung04
これはUnslothのDeepSeek - R1 - Distill - Llama - 8Bモデルを微調整したネットワークセキュリティ専用バージョンで、ネットワークセキュリティ関連の内容の生成と理解に特化し、脅威インテリジェンスの要約や脆弱性分析などのタスクをサポートします。
bobchenyx
これはDeepSeek-V3-0324の量子化バージョンで、特定の量子化方法を用いて処理され、様々なシナリオでより効率的な使用を実現することを目的としており、性能と効率をバランスさせるために複数の量子化仕様をサポートしています。
willcb
これは🤗 Transformersモデルセンターのモデルカードです。具体的な情報が不足しているため、詳細なモデル紹介を提供することができません。完全な情報を取得するには、元のモデルページを確認することをおすすめします。
Mungert
AceReason-Nemotron-7Bは、強化学習によって訓練された数学とコードの推論モデルで、DeepSeek-R1-Distilled-Qwen-7Bをベースに開発され、複数の推論ベンチマークテストで優れた性能を発揮します。
DeepSeek MCPサーバーは、DeepSeek API用に設計されたモデルコンテキストプロトコルサーバーで、Claude DesktopなどのMCP互換アプリとシームレスに統合でき、匿名APIアクセスとスマートな対話管理を提供します。
DeepSeek MCPサーバープロジェクトは、Claude Desktopなどのアプリケーションに匿名APIプロキシサービスを提供し、多輪対話と自動モデル切り替えをサポートします。
Unreal Engineの生成型AIサポートプラグインで、最新のLLM/GenAIモデルAPIを統合し、ゲーム開発におけるAI統合層のサポートを提供します。OpenAI、Claude、Deepseekなどのモデルのチャット、構造化出力などの機能を備え、Model Control Protocol(MCP)をサポートしてシーンオブジェクトの制御やブループリントの生成などの高度な機能を実現します。
DeepSeekの推論とClaudeの生成を組み合わせた二段階AI会話サービス
MCPプロトコルを実装したサーバーで、Claude DesktopにDeepseekモデルを統合するために使用されます。
MCP DeepSeekデモプロジェクトは、MCPプロトコルに基づくクライアントアプリケーションで、DeepSeek AIを統合してツール呼び出しとリアルタイム通信を実現しています。Next.jsフロントエンドとSSEサーバーを含んでいます。
DeepSeek-V3をベースに開発されたMCP天気情報取得エージェントプロジェクトで、APIキーを設定してクライアントスクリプトを実行することで機能を実現します。
DeepSeekの推論能力とClaudeの生成能力を組み合わせたMCPサービス
Node.jsベースのDeepseek R1言語モデルのMCPサーバー実装で、8192トークンの文脈ウィンドウをサポートし、安定したClaude Desktop統合とモデルパラメータ設定を提供します。
Gemini APIをベースにした高度な推論とリフレクションツール
Deepseek Thinker MCP Serverは、Deepseekの推論内容を提供するMCPサービスで、OpenAI APIとローカルのOllamaの2つのモードをサポートし、AIクライアントに統合できます。
DeepSeek R1の推論エンジンを統合することで、Claudeの複雑なタスク処理能力を強化します
このプロジェクトは、DeepSeek R1の推論エンジンを統合することで、Claudeの複雑なタスク処理能力を強化し、多段階の正確な推論サポートを提供します。
DeepSeek APIに基づくMCPライクサーバーのプロトタイプで、ターミナルコマンド実行とAIチャットの統合機能を提供します。
Deepseek R1モデルの思考チェーンを利用して推論を行うMCPサービスツールで、Claude Desktopなどのクライアントで使用できます。
DeepSeek APIを統合した本番レベルのMCPサーバーで、コードレビュー、ファイル管理、APIアカウント管理などの機能を提供し、多モデル選択とJSON形式の応答をサポートします。
Deepseek R1のMCPサーバー実装で、Node.js環境をサポートし、強力な言語モデル推論サービスを提供します。
Claudeによって構築されたDeepSeek推論サービスプロジェクト
MCPサーバーは、Claude Codeが複雑な問題の深い分析が必要なときに、o3、Gemini 2.5 Pro、DeepSeek Reasonerなどのより強力なAIモデルに相談できるようにします。
ローカルで動作するインテリジェントエージェントシステムで、推論モデルとツール呼び出しモデルを組み合わせています。