4月9日、宇樹科技の人型ロボットR1が杭州のアリババキャンパスで披露され、両社の協力が始動。R1は人間のようにPCを操作し、画面に「招待状」を表示し、4月中旬に開始予定の「樹売通」プロジェクトを宣伝。....
AI動画生成技術がコンテンツ生成からリアルタイム対話へ進化。主要企業がCラウンド資金調達を完了し、新たに世界初のリアルタイム世界モデルPixVerse R1を発表。....
DeepSeekは来週、画像・動画・テキスト生成機能を追加したV4大モデルをリリース。2025年1月のR1以来の大型アップデートで、国内低コストオープンソース市場を強化。証券アナリストは、春節期間中の高頻度消費シーンを通じたAI応用の商業化加速を予測。....
深度求索は来週、画像・動画・テキスト生成をネイティブサポートする多モーダル大規模モデルV4をリリース。国内の高性能低コストオープンソース多モーダルモデル市場の空白を埋める。1月のR1推論モデル以来の初の大型アップデート。初期は簡易技術説明を提供、1ヶ月後に詳細なエンジニアリングレポートを公開。V4は華為・寒武紀と基盤エコシステムで連携済み。....
DeepSeek R1-0528はオープンソースの大規模モデルで、OpenAI o3モデルに匹敵するパフォーマンスを持っています。
DeepSeek R1およびV3モデルに基づくブラウザサイドバーAIツールで、質疑応答、創作、翻訳などの機能を提供します。
R1-Omniは、強化学習を組み合わせた全モーダル感情認識モデルであり、マルチモーダル感情認識の解釈性の向上に焦点を当てています。
DeepSeek-V3/R1推論システムは大規模AIモデルの最適化向けに設計された高性能な分散推論アーキテクチャです。
Deepseek
$4
入力トークン/百万
$16
出力トークン/百万
32
コンテキスト長
Alibaba
$2
-
$1.6
128
Tencent
$100
bartowski
これはTheDrummerのCydonia - R1 - 24B - v4.1モデルの量子化バージョンで、llama.cppツールを使用して複数の精度で量子化処理が行われ、さまざまなハードウェア条件下で効率的に動作し、ユーザーにより多くの選択肢を提供します。
facebook
MobileLLM - R1はMetaが公開した高効率推論モデルシリーズで、140M、360M、950Mの3種類の規模があります。このモデルは数学、プログラミング、科学問題に特化して最適化されており、パラメータ規模が小さいにもかかわらず、大規模モデルと同等またはそれ以上の性能を実現しています。
MobileLLM - R1はFacebookが開発した高効率推論モデルシリーズで、数学、プログラミング、科学問題の解決に特化しています。このモデルは約2Tの高品質ラベル付きデータのみで事前学習を行ったにもかかわらず、複数のベンチマークテストで優れた性能を発揮しまし。
これはTheDrummerのBehemoth R1 123B v2モデルの量子化バージョンで、llama.cppとimatrix技術を使用して量子化処理を行っています。良好な性能を維持しながら、モデルの保存スペースと計算リソースの要件を大幅に削減でき、さまざまなデバイスでの実行に適しています。
recursechat
DeepSeek - R1は大規模な強化学習によって訓練された推論モデルで、数学、コード、推論タスクで優れた性能を発揮します。教師付き微調整を必要とせずに、自己検証、反省、長い思考チェーンの生成などの強力な推論能力を示します。
yanmyoaung04
これはUnslothのDeepSeek - R1 - Distill - Llama - 8Bモデルを微調整したネットワークセキュリティ専用バージョンで、ネットワークセキュリティ関連の内容の生成と理解に特化し、脅威インテリジェンスの要約や脆弱性分析などのタスクをサポートします。
nvidia
NVIDIA DeepSeek R1 FP4 v2は、DeepSeek AIのDeepSeek R1モデルに基づいてFP4量子化を行ったテキスト生成モデルで、最適化されたTransformerアーキテクチャを採用しており、商用および非商用用途に使用できます。このモデルはTensorRT Model Optimizerを通じて量子化され、FP8バージョンと比較してディスク容量とGPUメモリの要件が大幅に削減されています。
NVIDIA DeepSeek-R1-0528-FP4 v2はDeepSeek R1 0528モデルの量子化バージョンで、最適化されたTransformerアーキテクチャを採用し、自己回帰型言語モデルです。FP4量子化最適化により、ディスク容量とGPUメモリの要求量を削減し、同時に高い推論効率を維持します。
Azzindani
これはインドネシア法律分野に特化して最適化された言語モデルで、DeepSeek - R1 - 0528 - Qwen3 - 8Bをベースに、GRPO方法を使用してインドネシア法律質問と回答データセットで微調整され、法律推論と構造化思考能力の向上に重点を置いています。
NVIDIA DeepSeek-R1-0528-FP4はDeepSeek R1 0528モデルの量子化バージョンで、最適化されたTransformerアーキテクチャを採用し、重みと活性化値をFP4データ型に量子化することで、ディスク容量とGPUメモリの要件を大幅に削減し、TensorRT-LLM推論エンジンをサポートして効率的な推論を実現します。
DeepSeek AI社のDeepSeek R1 0528モデルの量子化バージョンで、最適化されたTransformerアーキテクチャに基づく自己回帰型言語モデルで、商用および非商用用途に使用できます。
zhuyaoyu
CodeV - R1 - Qwen - 7BはCodeV - R1フレームワークに基づき、Qwen/Qwen2.5 - Coder - 7B - Instructを基に強化学習微調整を行って得られたモデルで、Verilog関連のタスクに特化しており、電子設計自動化におけるハードウェア記述言語の自動生成の難題を効果的に解決できます。
Sci-fi-vy
DeepSeek-R1-0528はDeepSeek R1シリーズの小バージョンアップグレードモデルで、計算リソースの増加とアルゴリズムの最適化により、推論の深度と能力を大幅に向上させ、数学やプログラミングなどの複数のベンチマークテストで優れた成績を収めています。
cognitivecomputations
DeepSeek R1 0528のAWQ量子化モデルで、vLLMを使用して8基の80GB GPUでフルコンテキスト長で実行可能です。
QuixiAI
DeepSeek-R1-0528-AWQはDeepSeek R1 0528のAWQ量子化バージョンで、量子化技術によりモデルの実行効率を向上させ、コードの問題を修正し、より安定したサービスを提供します。
adamo1139
DeepSeek - R1 - 0528 671Bモデルの4ビットAWQ量子化バージョンで、ハイエンドGPUノードでの使用に適しています。
DeepSeek-R1-0528はDeepSeek R1モデルの小規模なバージョンアップで、計算リソースの増加とアルゴリズムの最適化により、推論能力を大幅に向上させ、数学、プログラミング、一般的な論理などの複数のベンチマーク評価で優れた成績を収めています。
deepseek-ai
DeepSeek R1モデルはマイナーバージョンアップを完了し、現在のバージョンはDeepSeek-R1-0528です。最新の更新では、DeepSeek R1は計算リソースの投入を増やし、トレーニング後の段階でアルゴリズム最適化メカニズムを導入することで、深層推論と推論能力を大幅に向上させました。
WenchuanZhang
Patho - R1 - 7Bは病理学分野に特化して設計された多モーダル推論モデルで、三つの段階の訓練パイプライン(継続的事前学習、監督微調整、強化学習)を通じて病理診断理解能力を強化し、高解像度病理画像と複雑な診断推論タスクを効果的に処理できます。
Franklin0
ReasonGen - R1は、画像プロンプトと推論根拠のデータセット上で教師付き微調整(SFT)によって訓練されたテキストから画像へのモデルで、テキストに基づく明示的な「思考」能力を備えています。
Node.jsベースのDeepseek R1言語モデルのMCPサーバー実装で、8192トークンの文脈ウィンドウをサポートし、安定したClaude Desktop統合とモデルパラメータ設定を提供します。
DeepSeek R1の推論エンジンを統合することで、Claudeの複雑なタスク処理能力を強化します
このプロジェクトは、DeepSeek R1の推論エンジンを統合することで、Claudeの複雑なタスク処理能力を強化し、多段階の正確な推論サポートを提供します。
Deepseek R1モデルの思考チェーンを利用して推論を行うMCPサービスツールで、Claude Desktopなどのクライアントで使用できます。
Deepseek R1のMCPサーバー実装で、Node.js環境をサポートし、強力な言語モデル推論サービスを提供します。
ローカルで動作するインテリジェントエージェントシステムで、推論モデルとツール呼び出しモデルを組み合わせています。
Deepseek R1のMCPサーバー実装で、Claude Desktopとの統合をサポートし、強力な言語モデル推論サービスを提供します。
Thoughtful Claudeは、Claudeの推論能力を強化するMCPサーバーで、DeepSeek R1の高度な推論エンジンを統合することで、Claudeに複雑な多段階推論タスクの処理能力を提供します。
DeepSeek-Claude MCPサーバーは、DeepSeek R1の高度な推論エンジンを統合することで、Claudeの複雑な推論タスクの処理能力を強化します。
DeepSeek MCPサーバーは、DeepSeek R1の高度な推論エンジンを統合することでClaudeの推論能力を強化し、複雑な多段階推論タスクを処理できるようにします。
DeepSeek MCPサーバーは、DeepSeek R1の先進的な推論エンジンを統合することでClaudeの推論能力を強化し、複雑な多段階推論タスクを処理できるようにします。
これは自動車ネットワークセキュリティ規制の即時照会を提供するMCPサーバーです。完全なUNECE R155/R156規制とISO 21434標準の内容を含み、自然言語検索とコンプライアンス分析をサポートし、エンジニアやコンプライアンス担当者が正確な規制要件を迅速に取得するのを支援します。
DeepSeek MCP Serverは、DeepSeek R1の高度な推論エンジンを統合することでClaudeの推論能力を強化し、複雑な多段階推論タスクを処理できるようにします。
このプロジェクトはDeepSeek R1の推論エンジンを統合することで、Claudeの複雑な推論タスクの処理能力を強化し、効率的で正確な多段階推論の解決策を提供します。
DeepSeek R1とClaudeを組み合わせた認知アーキテクチャプロジェクトで、R1による高度な推論計画とClaudeによる具体的な分析の実行を通じて、多段階の論理推論と構造化された思考処理を実現します。
Model Context Protocol (MCP)に基づくサーバーで、DeepSeek - R1の推論機能にアクセスでき、非推論モデルが強化された思考によってより良い応答を生成できるようにします。
DeepSeek R1の推論とClaude 3.5の生成能力を結合したMCPサービス