サムスン電子は、2026年初頭に半導体部門の従業員に対して年収の43%〜48%に相当する業績ボーナスを支給する予定で、2024年の14%と比べて大幅に増加しており、このことはAIの波の中で半導体業界が強力な成長を遂げていることを示している。
「十四五」計画の最終年に、中国は集積回路やAIなどの重要分野で体系的ブレークスルーを達成。オープンソース鴻蒙OS搭載デバイスは700種超、生成AIモデルは認証取得、具身知能などの産業化が加速し、デジタル応用大国から知的技術強国への転換が進展。....
12月24日、DeepSeekが小红书で元宝と交流し、その年次報告を称賛。報告によると、2月のDeepSeek連携後、元宝ユーザー数は着実に増加し、12月14日にピークに達し、100倍以上の成長を記録、国内AIアシスタントトップを維持。....
DeepSeek導入後、ユーザーとAIの対話が大幅に増加。会話の3分の1以上が2ラウンド以上継続し、深い対話と迅速な応答の割合は3:7。回答の半数近くが画像・動画形式。12月14日の質問数は年間ピークに達し、年初比で大幅増。....
無料のオンラインサンタクロース音声生成器で、149種類の言語に対応し、リアルな音声を生成します。
AIビルダーズプログラムは、メンターによる指導の下で行われる14日間のスプリントプロジェクトで、大胆なAIアイデアを実際に運用できるエージェントに変えます。フレームワーク、リアルタイム構築時間、LLMの集中講座などが含まれ、100%無料です。
合成データによって時系列の理解と推論を強化するモデル。
様々な生成タスクに対応したオープンソースのビデオ生成モデルです。
Alibaba
$1
入力トークン/百万
-
出力トークン/百万
32
コンテキスト長
Deepseek
$2
8
128
Baichuan
Baidu
ExaltedSlayer
Gemma 3はGoogleが開発した軽量オープンソースのマルチモーダルモデルです。このバージョンは12Bパラメータの命令調整量子化感知トレーニングモデルで、MLXフレームワークのMXFP4形式に変換されています。テキストと画像の入力をサポートし、テキスト出力を生成します。128Kのコンテキストウィンドウと140種類以上の言語をサポートしています。
kayte0342
ChronoEdit-14BはNVIDIAが開発した、時間推論能力を備えた画像編集と世界シミュレーションモデルで、140億のパラメータを持っています。このモデルは、2段階の推論プロセスにより、物理知覚に基づく画像編集と動作条件に基づく世界シミュレーションを実現し、事前学習されたビデオ生成モデルから事前知識を抽出します。
mradermacher
これはManoghn/voicecraft-mistral-7bモデルの静的量子化GGUFバージョンで、Mistral-7Bアーキテクチャに基づいており、コンテンツ生成とテキスト生成タスクに特化しています。このバージョンでは、2.8GBから14.6GBまでのさまざまな量子化レベルが提供されており、ユーザーはハードウェア条件とパフォーマンス要件に応じて適切なバージョンを選択できます。
unsloth
JanusCoder-14Bは、Qwen3-14Bをベースに構築された14Bパラメータのオープンソース基礎モデルで、コードインテリジェンスに統一されたビジュアルプログラミングインターフェイスを構築することを目的としています。このモデルはJANUSCODE-800Kマルチモーダルコードコーパスで学習され、さまざまなビジュアルプログラミングタスクを統一的に処理することができます。
ByteDance
Ouro-1.4Bはバイトダンスによって開発された14億のパラメータを持つ循環言語モデルで、反復共有重み計算によって卓越したパラメータ効率を実現し、わずか14億のパラメータで30 - 40億の標準Transformerモデルの性能レベルに達しています。
Gemma 3 27B IT QATのMLX MXFP4量子化バージョンで、Googleによって開発された軽量オープンソースのマルチモーダルモデルです。このモデルは、テキストと画像の入力を同時に処理し、テキスト出力を生成することができ、128Kの大規模コンテキストウィンドウを持ち、140種類以上の言語をサポートし、さまざまなテキスト生成と画像理解タスクに適しています。
Guilherme34
Qwen2.5-14B-InstructはQwen2.5アーキテクチャに基づく多言語大規模言語モデルで、140億のパラメータを持ち、13種類の言語をサポートし、優れた指令追従と対話能力を備えています。このモデルは様々な言語タスクで優れた性能を発揮し、多言語シーンでのテキスト生成と理解に適しています。
zambawi
joywan - loraは、OstrisによるAIツールキットを基にトレーニングされたLoRAモデルで、テキストから動画および画像生成タスクに特化しており、基礎モデルのWan - AI/Wan2.1 - T2V - 14B - Diffusersと併用する必要があります。
birder-project
これはRoPE(回転位置符号化)に基づくVision Transformerモデルで、パラメータ規模は150Mで、14x14のパッチサイズを採用しています。このモデルは約2100万枚の画像からなる多様なデータセットで事前学習されており、汎用的なビジュアル特徴抽出器として使用できます。
suayptalha
Sungur-14Bは、トルコ語に特化した大規模言語モデルで、Qwen/Qwen3 - 14Bをベースに派生しています。このモデルは、41,100個のトルコ語サンプルを含むデータセットを使用して微調整され、数学、医学、一般知識などの分野の推理会話をカバーし、トルコ語の地域的な推理能力を強化することを目的としています。
bigdoinks420518
これはOstrisによるAIツールキットを使用してトレーニングされたLoRAモデルで、Wan - AI/Wan2.1 - T2V - 14B - Diffusersベースモデルに基づいており、主にテキストからビデオ生成に使用され、画像生成分野で独自の応用価値があります。
geoffmunn
これはQwen/Qwen3-14B言語モデルのGGUF量子化バージョンで、140億のパラメータを持ち、深い推論能力、研究レベルの正確性、自律的なワークフローを備えています。変換後、llama.cpp、LM Studio、OpenWebUI、GPT4Allなどのローカル推論フレームワークで使用できます。
Jackrong
microsoft/phi-4(14B)ベースモデルを基にした三階段訓練のGRPO推論テストモデルで、SFT→RLHF→SFTのフローで微調整され、優れた多段階推論能力を持っています。
Qwen2.5-14B-Instructは140億パラメータの大規模言語モデルで、チャットとテキスト生成シーン向けに設計されています。このモデルはtransformersライブラリに基づいて構築され、内部テストと軽量アプリケーションのデプロイに適しています。
inclusionAI
LLaDA-MoEは拡散原理に基づいて構築された新しい混合専門家言語モデルで、最初のオープンソースのMoE拡散大規模言語モデルです。約20兆個のトークンで最初から事前学習され、総パラメータは70億で、推論時には14億のパラメータのみがアクティブ化されます。コード生成や数学的推論などのタスクで卓越した性能を発揮します。
facebook
MobileLLM - R1はMetaが公開した高効率推論モデルシリーズで、140M、360M、950Mの3種類の規模があります。このモデルは数学、プログラミング、科学問題に特化して最適化されており、パラメータ規模が小さいにもかかわらず、大規模モデルと同等またはそれ以上の性能を実現しています。
MobileLLM-R1はMetaが開発した効率的な推論モデルシリーズで、数学、プログラミング、科学の問題解決に特化しています。このモデルは140M、360M、950Mの3つの規模のバージョンを提供し、優れた推論能力と再現性を備えています。
alibaba-pai
Wan-Funは強力なテキストから動画生成ツールで、多解像度の動画予測と多言語をサポートし、多様な動画生成ニーズを満たすことができます。このモデルはWan2.2アーキテクチャに基づいており、14Bのパラメータ規模を持ち、テキストから動画および画像から動画の生成タスクに特化しています。
Ring-mini-2.0はLing 2.0アーキテクチャを基に深度に最適化された高性能推論型MoEモデルで、総パラメータが160億、活性化パラメータが14億に過ぎないが、100億規模以下の密集モデルと同等の総合推論能力を実現しています。論理推論、コード生成、数学タスクにおいて優れた性能を発揮し、12.8万の長文脈処理と毎秒300以上のトークンの高速生成をサポートしています。
mlx-community
これはNousResearch/Hermes-4-14Bモデルを変換した8ビット量子化MLX形式のバージョンで、Apple Silicon向けに最適化され、効率的なローカル推論をサポートしています。このモデルは140億パラメータの大規模言語モデルで、指令の遵守、推論、会話タスクに特化しています。
MCPキャラクターツールは、大規模言語モデルに文字レベルのテキスト分析機能を提供するサーバーです。LLMが形態素解析により個々の文字を処理することが困難な問題を解決し、14種類以上の文字カウント、スペル分析、テキスト比較ツールを提供します。
YouTube Data API v3に基づくMCPサーバーで、14種類の機能を提供し、YouTube動画、チャンネル、プレイリストなどのデータをリアルタイムで取得できます。コンテンツ評価、字幕抽出などの高度な機能をサポートし、AIアシスタントの統合に適しています。
NotebookLM MCPサーバーのセキュリティ強化バージョンで、幻覚のない回答、Gemini深い調査、ドキュメントAPI、およびプログラムによるノートブック作成機能を提供し、ポスト量子暗号化、証明書固定、およびコンプライアンスサポートを含む14層の企業レベルのセキュリティ保護を備えています。
YouTube MCPサーバーは、YouTube Data API v3を通じてYouTubeのリアルタイムデータアクセスを提供する総合的なモデルコンテキストプロトコルサーバーで、動画詳細情報の取得、チャンネル分析、コンテンツ評価、字幕抽出など14種類の機能をサポートし、AIアシスタントへの統合に適しています。
Prompt Decoratorsは、大規模言語モデルのプロンプト強化と変換を標準化するフレームワークで、規範定義とPython実装を提供し、140以上の事前定義されたデコレータを含み、MCPプロトコルの統合をサポートします。
Smart Search MCPは技術検索に特化したスマートツールセットで、14の拡張型サーチツールを提供し、GitHub、StackOverflow、NPM、微信文書、CSDNなど国内外の主流技術プラットフォームを網羅し、スマートURL生成、高度な検索テクニック、マルチソース検索などの特性を備えています。
gopls-mcpは、Go言語サーバー(gopls)をModel Context Protocol(MCP)互換のホスト(Claude Code、VS Codeなど)に統合するMCPサーバープロジェクトです。コードナビゲーション、診断分析、コード支援などの14種類のGo開発ツールを提供し、複数のワークスペースを同時に操作できます。
Office Whisperer v4.0は、AIベースのMicrosoft Officeソフトウェアの自動化ツールセットで、自然言語インターフェイスを通じて143の専用ツールを提供し、Excel、Word、PowerPoint、Outlookの全面的な自動化操作を実現します。
MITRE ATT&CK MCPサーバーはAIネイティブの脅威インテリジェンスツールで、Model Context Protocolを通じてMITRE ATT&CKフレームワークに全面的にアクセスできます。200以上の技術、140以上の脅威組織、700以上のソフトウェアエントリの検索機能を備え、ATT&CK Navigatorの可視化レイヤー生成をサポートし、セキュリティチームとAIエージェント向けに設計されています。
Djangoアプリで、Firebaseモデルコンテキストプロトコル(MCP)サーバーを実装し、AIエージェントが標準化されたプロトコルを介してFirebaseサービスと相互作用できるようにします。認証、データベース、ストレージなど14種類のツールを提供します。
非公式のReclaim.ai MCPサーバーで、標準的なリソースとツールを通じてMCP互換クライアントがReclaim APIとやり取りでき、タスク管理、計時など14種類の操作をサポートします。
Djangoアプリケーションで、Firebaseモデルコンテキストプロトコル(MCP)サーバーを実装し、AIエージェントが標準化されたプロトコルを介してFirebaseサービスと対話できるようにします。認証、データベース、ストレージ機能を含む14のFirebaseツールを提供し、迅速なテストと完全な統合をサポートします。