2026年初頭、スマホ業界は画期的な変化を迎える。努比亚が発表した豆包スマートフォンは「新しい生命体」として定義され、先駆的なインタラクティブなコンセプトによりユーザーのスマホに対する認識を再定義している。中興通信の副社長である張雷はその提供する「完全自動運転に近い」スマート体験を高く評価している。
蘇州市高新技術開発区に国内初のドッキングAIアプリケーションサービスセンターが進出し、AI技術を通じて製造業のアップグレードを推進し、"AI+製造"産業の発展を加速するものである。
アリババ・ピントウゲーは高性能AIチップのジンムー810Eを発表しました。その性能はNVIDIA A800と主流の国内GPUを上回り、H20と同等です。このチップは自社開発のアーキテクチャと相互接続技術を使用しており、アリババのAI戦略「通雲哥(トンユンゲ)」が正式に完成したことを示しています。
メタは、マルチモーダルセンシングを基盤とするAIによる顔の表情生成技術を提案しました。ユーザーの体の動きや音声などの多次元情報を分析することで、バーチャルインタラクションにおいて自然で生き生きとした表情の生成を実現し、従来の方法では高価なハードウェアに依存していたり、音声のみを同期していたりする制限を克服しました。特にユーザーが複雑な動作をしている場合や顔が隠れている場面、あるいは身体を通じて情報を受け渡すシーンにおいて特に有効です。
Voor AIはテキスト、画像、またはビデオを通じて、迅速に高品質の画像とビデオを生成することができ、大量のテンプレートが用意されています。
世界最高水準の住宅プロキシサービスプロバイダー。1億以上の質の高い住宅プロキシを通じて、データ抽出をサポートします。
通义万2.2 Plusモデルに基づいて、高品質のAIビデオを迅速に生成でき、機能が強力です。
高度なAIを通じて専門的な音楽を生成し、著作権無料のビート、メロディー、サウンドを簡単に作成できます。クリエイターや音楽家に最適です。
Google
$0.49
入力トークン/百万
$2.1
出力トークン/百万
1k
コンテキスト長
Xai
$1.4
$3.5
2k
Openai
$7.7
$30.8
200
-
$0.7
$2.8
Anthropic
$7
$35
$17.5
$21
$105
Alibaba
$1
$10
256
$4
$16
$2
$20
$8
$240
52
Bytedance
$1.2
$3.6
4
$3.9
$15.2
64
Nanbeige
楠米色4-3B-思考-2511は楠米色シリーズの最新の強化バージョンで、高度な蒸留技術と強化学習による最適化を通じて、コンパクトな3Bパラメータ規模で強力な推論能力を実現しています。このモデルはArena-Hard-V2やBFCL-V4などのベンチマークテストで、パラメータが32B未満のモデルの中で最先端(SOTA)の成果を達成しています。
noctrex
これはMiniMax-M2-REAP-172B-A10BモデルのMXFP4_MOE量子化バージョンで、メモリ効率の高い圧縮モデルです。REAP(ルーティング重み付き専門家活性化剪定)方法を通じて、性能を維持しながらモデルを230Bパラメータから172Bパラメータに圧縮し、サイズを25%縮小し、リソース制限のある環境、ローカルデプロイ、および学術研究に適しています。
cyankiwi
ERNIE-4.5-VL-28B-A3B-Thinking AWQ - INT8は、百度のERNIE-4.5アーキテクチャに基づくマルチモーダル大規模言語モデルで、AWQ量子化技術を通じて8ビット精度を実現し、高性能を維持しながらメモリ要件を大幅に削減します。このモデルは、視覚推論、STEM問題解決、画像分析などの分野で優れた性能を発揮し、強力なマルチモーダル理解と推論能力を備えています。
bartowski
これはinclusionAIのLing-flash-2.0モデルのLlamacpp imatrix量化バージョンです。高度な量化技術を通じて、モデルの性能を維持しながらメモリ使用量と計算量を大幅に削減し、実行効率を向上させます。複数の量化レベルをサポートし、異なるハードウェア構成に適しています。
jackcloudman
Qwen3-Next-80B-A3B-Thinkingは通義千問チームが開発した新世代の思考型大規模言語モデルで、革新的な混合注意力機構と高疎性MoEアーキテクチャを採用し、高効率推論を維持しながら強力な複雑推論能力を備え、ネイティブで262Kの文脈長をサポートします。
NexaAI
Qwen3-VL-4B-Instructは、アリババクラウドのQwenチームが開発した40億パラメータの命令調整済みマルチモーダル大規模言語モデルで、高通NPU用に最適化されており、強力なビジュアル言語理解能力と対話微調整機能を融合させ、チャット推論、文書分析、ビジュアル対話などの実際のアプリケーションシーンに適しています。
Akicou
Qwen3-Omni-30B-A3B-ThinkingモデルのQ4_K_S量子化GGUFバージョンで、テキスト、視覚、オーディオのマルチモーダル処理をサポートし、llama.cppを通じて高効率な推論を実現します。このバージョンは品質を保証しつつ、ファイルサイズを大幅に削減し、推論速度を向上させます。
loyal-misc
svizzはLoRA技術に基づくテキストから画像への生成モデルで、LyliaEngine/Pony_Diffusion_V6_XLをベースモデルとして、特定のトリガーワードを通じて高品質な画像コンテンツを生成することができます。
nightmedia
Huihui-gpt-oss-20b-mxfp4-abliterated-v2-qx86-hi-mlxは20Bパラメータに基づく大規模言語モデルで、量子化技術を用いて最適化され、MLXフレームワークに特化した形式変換が行われています。このモデルは高精度量子化技術を通じて、モデルの精度を維持しながら推論効率を大幅に向上させ、様々な自然言語処理タスクに適しています。
amd
Llama-3.1-8B-onnx-ryzenai-npuは、AMDがMetaのLlama-3.1-8Bモデルをベースに開発した最適化バージョンで、AMD Ryzen AI NPU向けに最適化されたデプロイが行われています。このモデルは、Quark量子化、OGAモデルビルダー、およびNPU専用の後処理技術を通じて、高品質なテキスト生成能力を維持しながら、AMDハードウェア上での推論効率を大幅に向上させています。
unsloth
Qwen3-Next-80B-A3B-Instructは、アリババの通義千問チームによって開発された最新世代の大規模言語モデルです。革新的な混合注意力機構と高疎なエキスパート混合アーキテクチャを採用し、総パラメータ数を80Bに保ちながら3Bのパラメータのみを活性化させ、効率的なコンテキストモデリングと推論の高速化を実現しています。ネイティブで262Kのコンテキスト長をサポートし、1Mトークンまで拡張可能です。
cpatonn
Qwen3-Next-80B-A3B-Thinking-AWQ-4bitは、Qwen3-Next-80B-A3B-ThinkingモデルをAWQ量子化技術を通じて生成した4ビットバージョンで、モデルの推論効率を著しく向上させました。このモデルは混合注意力機構と高疎なMoEアーキテクチャを採用し、複雑な推論タスクで優れた性能を発揮し、最大262Kトークンのコンテキスト長をサポートします。
Qwen
Qwen3-Next-80B-A3B-InstructはQwen3-Nextシリーズの基礎モデルで、革新的な混合注意力機構や高疎性のエキスパート混合層などの技術を通じて、長テキスト処理における効率的なモデリングと推論加速を実現し、複数のベンチマークテストで卓越した性能を発揮しています。
DevQuasar
本プロジェクトは、騰訊の混元-MT-7B大規模言語モデルの量子化バージョンを提供します。モデル圧縮技術を通じて計算と記憶の要件を削減し、知識をすべての人に利用可能にすることを目指し、高性能なAIモデルをより普及させ、使いやすくします。
chaitnya26
Qwen-Image-Lightningは、Qwen/Qwen-Imageに基づくテキストから画像への生成モデルで、蒸留とLoRA技術を通じて高速かつ高品質な画像生成を実現し、diffusersライブラリを使用した簡便な呼び出しをサポートしています。
Kwai-Keye
快手Keye-VLは快手Keyeチームによって開発された最先端のマルチモーダル大規模言語モデルで、ビデオ理解、視覚認知、および推論タスクで卓越した性能を発揮します。1.5バージョンは革新的な高速・低速ビデオコーディング戦略、LongCoTコールドスタートデータパイプライン、および強化学習トレーニング戦略を通じて、ビデオ理解、画像認知、および推論能力において新たな高みに到達し、最大128kトークンの拡張文脈長をサポートします。
GetSoloTech
これはQwen3-Code-Reasoning-4BモデルのGGUF量子化バージョンで、競技プログラミングとコード推論タスクに特化して最適化されています。このモデルは高品質のコード推論データセットでトレーニングされ、詳細な推論を通じて複雑なプログラミング問題を解決する能力が強化されています。
dnakov
Seed-OSS-36B-Instructは、バイトドングが開発したテキスト生成モデルで、36Bパラメータ規模の大規模言語モデルアーキテクチャに基づいており、指令追従タスクに特化して最適化されています。このモデルは英語と中国語の両方をサポートし、Apache-2.0オープンソースライセンスを採用しており、vllmとmlx推論フレームワークを通じて高効率にデプロイできます。
sothmik
これはCivitaiプラットフォームに基づくテキストから画像生成モデルで、テキスト記述を高品質な画像に変換することができます。モデルは量子化ツールを通じて最適化することができ、クリエイティブデザインやビジュアルコンテンツ生成に適しています。
prithivMLmods
cudaLLM-8BはByteDance Seedによって開発された専門の言語モデルで、高性能かつ構文が正しいCUDAカーネルコードを生成するために特別に設計されています。Qwen3-8B基礎モデルをベースに構築され、監督微調整と強化学習の2段階のトレーニングを通じて、開発者が効率的なGPU並列プログラミングコードを記述するのを支援することができます。
hyper - mcpはWebAssemblyプラグインに基づく高性能MCPサーバーで、コンテナレジストリを通じたプラグイン配布をサポートし、さまざまなAIアプリケーションシーンに適しています。
Browser MCPはMCPサーバーとChrome拡張機能の組み合わせで、AIアプリケーション(VS Code、Claudeなど)を通じてブラウザの自動操作を実現し、高速、プライバシー保護、ログイン状態の維持、検出回避などの特徴を備えています。
PythonベースのMCPサーバーで、Notion APIを通じて高度なタスク管理とコンテンツ組織機能を提供し、AIモデルとNotionのシームレスな統合を実現します。
MCPゴムダックは、モデルコンテキストプロトコル(MCP)に基づくサーバーで、複数のOpenAI互換のLLMを照会するためのブリッジとして機能します。ゴムダックデバッグ法のように、ユーザーが異なるAI「ダック」に問題を説明し、多様な視点からの回答を得ることができます。さまざまなAIプロバイダーをサポートし、会話管理、多モデル比較、コンセンサス投票、議論、反復最適化などの高度なツールを提供し、MCPブリッジ機能を通じて他のMCPサーバーに接続して機能を拡張することができます。
GPT Researcher MCP ServerはMCPプロトコルに基づくAI調査サーバーで、深いウェブ検索と検証を通じて、LLMアプリケーションに高品質で最適化された調査結果を提供します。
Rustをベースにした高性能なローカルRAGシステムで、MCPプロトコルを通じてClaude Desktopと統合され、PDFドキュメントのローカル処理、意味検索、プライバシー保護を実現します。
plugged.in MCPプロキシサーバーは、複数のモデルコンテキストプロトコル(MCP)サーバーを統一インターフェースに集約するミドルウェアで、plugged.inエコシステムを通じて高度な管理機能を提供し、複数のMCPクライアントをサポートし、スマートなリクエストルーティングを実現します。
DiffuGenは高度なローカル画像生成ツールで、MCPプロトコルを統合し、複数のAIモデル(FluxやStable Diffusionシリーズを含む)をサポートし、開発環境で直接高品質な画像を生成できます。柔軟な設定オプション、複数GPUのサポートを提供し、MCPプロトコルを通じて複数のIDEと統合でき、同時に外部呼び出し用のOpenAPIインターフェースも提供します。
MUXI.aiは、オープンソースのマルチAIエージェントシステムフレームワークで、永続的なメモリ、標準化された通信プロトコル、および思考チェーン追跡機能を提供し、複数のインターフェース統合をサポートします。開発者が高度なAIアプリケーションを構築するためのモジュール型で拡張可能なプラットフォームを目指しています。
このプロジェクトは、Model Context Protocol (MCP)に基づくサーバーで、ethers.js v5を通じてClaudeにイーサリアムおよびEVM互換ブロックチェーンへのアクセス機能を提供します。ウォレットの作成、残高の照会、取引の送信、スマートコントラクトとのやり取りなどの操作が含まれます。
MCP MindMeshは、複数のClaude 3.7 Sonnetインスタンスを管理するサーバーで、量子啓発の群知能を通じてマルチエージェントの協調を実現し、高い一貫性のある応答を生成します。
FFUF MCPは、高速ウェブファジングツールFFUFとモデルコンテキストプロトコル(MCP)エコシステムをつなぐ架け橋です。標準化されたプロトコルを通じてFFUFの機能をMCP互換アプリケーションに統合し、自動化セキュリティテストとAI支援ワークフローをサポートします。
MCPウェブブラウザサーバーは、Playwrightをベースにした高度なヘッドレスブラウザサービスで、柔軟なAPIを通じてウェブブラウジング、コンテンツ抽出、およびインタラクション機能を提供します。
阿里云の関数計算MCPサーバープロジェクトで、MCPプロトコルを通じて関数計算能力をCursor、Claudeなどの代理アプリケーションに統合し、高速なデプロイと管理機能を提供します。
RegenNexus UAPは、デバイス、ロボット、アプリケーション、AIエージェントを接続するための汎用アダプタープロトコルで、低遅延、高セキュリティの通信を提供し、さまざまなハードウェアとMCP統合をサポートします。
NijiVoice-MCPは開発中のプロジェクトで、にじボイス(Niji Voice)APIとのModel Context Protocol (MCP)統合を実現し、LLMがMCPインターフェースを通じてにじボイスの音声合成機能(音声生成、声優リスト取得、残高照会など)を簡単に呼び出せるようにします。
Google Scholar MCPサーバーは、モデルコンテキストプロトコル(MCP)を通じてAIアシスタントにGoogle Scholarの学術論文へのアクセスを提供するインターフェースサービスです。キーワード検索、高度な検索、著者情報の照会機能をサポートし、AIモデルが学術論文のメタデータを取得するのを支援します。
ArXiv MCP Serverは、AIアシスタントにarXiv論文の検索とアクセス機能を提供するミドルウェアサービスです。Model Context Protocol (MCP)を通じて論文の検索、ダウンロード、内容の読み取り機能を実現し、ローカル保存によるアクセスの高速化をサポートします。
高度なObsidian MCPサーバーで、Local REST APIプラグインを通じてObsidianとやり取りし、AIエージェントが知識ベースの構造、リンク、内容を深く理解できるようにします。ファイル操作、検索、ノート管理、知識ベース分析などの機能を提供します。
高度なObsidian MCPサーバーで、Local REST APIプラグインを通じてObsidianとやり取りし、AIエージェントが知識ベースを深く理解し管理できるようにします。ファイル操作、検索、ノート管理、ライブラリ分析などの機能が含まれています。