GEOマーケティングを行う前、ブランドはローカルなシナリオにおいてユーザーとAIがどのようにやり取りしているか、たとえば言語、課題、検索意図などをしばしば見過ごしてしまいます。これらを理解していないと、地域向けターゲティングの効果は限定的になります。例えば、ある中国製ヘッドホンブランドは東南アジアでマーケティングを行う際に、シンガポールのユーザーが「地下鉄通勤時のノイズキャンセリング機能」に注目していることに気づきました。
JD Techは自社開発のJoyAI大規模モデルを通じて、北京の「京辦」プラットフォームの知能化アップグレードを支援し、政府事務をデジタル化からスマート化へと推進しました。この技術は政府知識ベースの分散や文書処理の複雑さなどの課題に応え、包括的なソリューションを提供し、文書作成の効率と都市統治レベルを顕著に向上させました。
ゲーム開発者会議の調査によると、生成AIがゲーム業界に悪影響を与えると考える開発者は半数以上に上り、肯定的な見方はわずか7%でした。技術革新に対する業界内の不安が急速に広がっており、過去3年間で否定的な意見が急増しています。....
杭州市のヒクビジョンは、自社開発の「観蘭」という産業用の大規模モデルを基にしたAI検査システムをリリースしました。このシステムは知能視覚検測を通じて製造業における部品の包装工程での誤りや漏れの問題を解決します。このシステムは部品の種類と数量を正確に識別でき、異常が発生すると即座にアラームを発します。これにより検査効率と正確性が顕著に向上します。
Voor AIはテキスト、画像、またはビデオを通じて、迅速に高品質の画像とビデオを生成することができ、大量のテンプレートが用意されています。
FimoはAIワークフローなどを通じてチームがマルチページのアニメーションサイトを作成し、迅速に公開するのを支援します。
AIによって駆動され、対話を通じてカスタマイズされるローカルデスクトップアプリケーションで、必要に応じて個人用ソフトウェアを作成できます。
AI駆動の販売トレーニングプラットフォームで、ロールプレイ、リアルタイム指導、通話分析を含み、チームがより多くの注文を獲得するのを支援します。
Xai
$1.4
入力トークン/百万
$3.5
出力トークン/百万
2k
コンテキスト長
Google
$0.7
$2.8
1k
Anthropic
$7
$35
200
Alibaba
$1
$10
256
-
$4
$16
$2
$20
$8
$240
52
$3.9
$15.2
64
Bytedance
$0.8
128
$54
$163
RinggAI
これは通話記録分析用に特別に開発された混合言語AIモデルで、ヒンディー語、英語、およびヒンディー語と英語の混合通話の文字起こし内容を処理できます。モデルはQwen2.5 - 1.5B - Instructをベースに微調整されており、強力な多言語理解と情報抽出能力を備えています。
ostris
これはLoRA技術に基づくテキストから画像への変換モデルで、フランスの印象派画家ベルト・モリソーの芸術スタイルを持つ画像を生成するために特別に設計されています。このモデルはFLUX.2-devベースモデル上で訓練され、通常の画像またはテキスト記述をモリソースタイルの絵画に変換することができます。
Nanbeige
楠米色4-3B-思考-2511は楠米色シリーズの最新の強化バージョンで、高度な蒸留技術と強化学習による最適化を通じて、コンパクトな3Bパラメータ規模で強力な推論能力を実現しています。このモデルはArena-Hard-V2やBFCL-V4などのベンチマークテストで、パラメータが32B未満のモデルの中で最先端(SOTA)の成果を達成しています。
bartowski
これはREAP方法に基づいて、MiniMax-M2の40%の専門家を均等に剪定して得られた139Bパラメータの大規模言語モデルです。GLMアーキテクチャと専門家混合(MoE)技術を採用し、llama.cppを通じて様々な量化処理を行い、テキスト生成タスクに適しています。
onnx-community
SAM3は概念ベースの任意分割モデルで、入力された点やボックスなどのプロンプト情報に基づいて、正確な画像分割マスクを生成することができます。このバージョンはONNX形式のSAM3トラッカーモデルで、Transformers.jsライブラリを通じてブラウザ環境で効率的に動作します。
noctrex
これはMiniMax-M2-REAP-172B-A10BモデルのMXFP4_MOE量子化バージョンで、メモリ効率の高い圧縮モデルです。REAP(ルーティング重み付き専門家活性化剪定)方法を通じて、性能を維持しながらモデルを230Bパラメータから172Bパラメータに圧縮し、サイズを25%縮小し、リソース制限のある環境、ローカルデプロイ、および学術研究に適しています。
inferencerlabs
Kimi - K2 - Thinking 3.825bit MLXは、テキスト生成に使用される量子化モデルで、異なる量子化方式を通じてテストで異なる困惑度の結果を得ています。そのうち、q3.825ビット量子化では1.256の困惑度を達成できます。
gbcfchc
これはQwen/Qwen3-8B-Baseをベースに微調整されたバージョンで、TRLフレームワークとGKD(On-Policy Distillation)方法を使用してトレーニングされ、テキスト生成タスクに特化しています。このモデルは自己生成エラーを通じて学習し、テキスト生成の品質と安定性を向上させました。
cyankiwi
ERNIE-4.5-VL-28B-A3B-Thinking AWQ - INT8は、百度のERNIE-4.5アーキテクチャに基づくマルチモーダル大規模言語モデルで、AWQ量子化技術を通じて8ビット精度を実現し、高性能を維持しながらメモリ要件を大幅に削減します。このモデルは、視覚推論、STEM問題解決、画像分析などの分野で優れた性能を発揮し、強力なマルチモーダル理解と推論能力を備えています。
これはQwen3-VL-30Bに基づく量子化バージョンのモデルで、画像テキストからテキストへの変換タスクに特化しています。このモデルは量子化技術を通じて元のモデルを最適化し、より効率的な推論ソリューションを提供します。
unsloth
Qwen3-VLは通義シリーズの中で最も強力なビジュアル言語モデルで、卓越したテキスト理解と生成能力、深いビジュアル感知と推論能力、長いコンテキストのサポート、強力な空間とビデオ動的理解能力、そして優れたインテリジェントエージェント対話能力を備えています。
これは慧慧Qwen3-VL-8B思考消去モデルの量子化バージョンで、Qwen3-VL-8Bアーキテクチャに基づいて、画像テキスト変換タスクに特化して最適化および量子化処理が行われ、llama.cppツールを通じて効率的に実行できます。
Qwen3-VL-8B-Thinkingは通義千問シリーズで最も強力なビジュアル言語モデルで、卓越したテキスト理解と生成能力、深いビジュアル認知と推論能力、長いコンテキストサポート、強力な空間とビデオ動的理解能力、そして優れたエージェント対話能力を備えています。
Qwen3-VLは通義シリーズの中で最も強力な視覚言語モデルで、卓越したテキスト理解と生成能力、深い視覚知覚と推論能力、長いコンテキストのサポート、強力な空間およびビデオ動的理解能力、そして優れたエージェント対話能力を備えています。
Qwen3-VLは通義シリーズで最も強力なビジュアル言語モデルで、テキスト理解と生成、ビジュアル認知と推論、コンテキスト長、空間およびビデオの動的理解、エージェントインタラクション能力などの面で全面的にアップグレードされています。このモデルは密集アーキテクチャとハイブリッドエキスパートアーキテクチャを提供し、エッジデバイスからクラウドまでの柔軟なデプロイをサポートします。
Smith-3
これはセントシモン大学の科学技術学部の学生向けに設計された微調整AIモデルで、TecnoTimeアプリケーションに統合され、学生が学習の組織性を維持し、学術的な継続性を向上させるのを助け、構造化された通知と激励メッセージを通じて学習習慣を強化します。
Qwen
Qwen3-VL-30B-A3B-Thinkingは通義シリーズで最も強力なビジュアル言語モデルで、優れたテキスト理解と生成能力、深いビジュアル認識と推論能力、長いコンテキストのサポート、強力な空間とビデオ動的理解能力、およびエージェント対話能力を備えています。
Qwen3 - VLは通義シリーズで最も強力なビジュアル言語モデルで、ハイブリッドエキスパートモデルアーキテクチャ(MoE)を採用し、GGUF形式の重みを提供し、CPU、GPUなどのデバイスで効率的な推論をサポートします。モデルは、テキスト理解、ビジュアル感知、空間理解、動画処理などの面で全面的にアップグレードされています。
Qwen3-VL-30B-A3B-Instructは通義シリーズで最も強力なビジュアル言語モデルで、ハイブリッドエキスパートモデルアーキテクチャを採用し、優れたテキスト理解と生成能力、深いビジュアル感知と推論能力を備え、256Kの長いコンテキストとビデオ理解をサポートし、さまざまなデバイスで推論が可能です。
Qwen3-VL-8B-Thinkingは通義千問シリーズの中で最も強力なビジュアル言語モデルで、強化された推論能力を備えた8Bパラメータ版です。このモデルは、テキスト理解、ビジュアル認知、空間理解、長文脈処理などの面で全面的にアップグレードされ、マルチモーダル推論とエージェントインタラクションをサポートしています。
これは、ブラウザ制御、芸術と文化、クラウドプラットフォーム、コマンドライン、通信、顧客データプラットフォーム、データベース、開発者ツール、データサイエンスツール、ファイルシステム、金融とフィンテック、ゲーム、知識と記憶、位置サービス、マーケティング、監視、検索、ユーティリティツールなど、複数のカテゴリをカバーする、継続的に更新されるMCPサーバーの選りすぐりのリストです。各プロジェクトにはGitHubリンクとスター数が付属しており、ユーザーがすぐに理解して使用できるようになっています。
MCPプロトコルに基づくKubernetesクラスター管理サーバーで、コマンドラインまたはチャットインターフェイスを通じてKubernetesクラスターとやり取りでき、リソース管理、Helmチャート操作などの機能を提供します。
WhatsApp MCPサーバーは、WhatsAppのウェブマルチデバイスAPIを通じて個人アカウントを接続するツールです。メッセージの検索、送信、マルチメディア処理をサポートし、ClaudeなどのLLMと統合されます。
AIモデルをWinDbg/CDBに統合するMCPサーバーで、Windowsのクラッシュダンプファイルの分析とリモートデバッグに使用し、自然言語での対話を通じてデバッグコマンドを実行できます。
このプロジェクトは、ObsidianのLocal REST APIプラグインを通じてObsidianノートアプリとやり取りするMCPサーバーです。Obsidian内のファイルを操作および管理するためのさまざまなツールを提供し、ファイルのリスト表示、内容の取得、検索、内容の変更、ファイルの削除などが可能です。
スーパーゲートウェイは、標準入出力ベースのMCPサーバーをSSEまたはWebSocketを通じてアクセス可能なサービスに変換するツールです。リモートデバッグと統合を容易にします。
BrowserTools MCPは強力なブラウザ監視と相互作用ツールで、Chrome拡張機能とローカルサーバーを通じてAIによるブラウザのスマートな分析と操作を実現します。
Runnoは、JavaScriptツールキットのセットで、ブラウザやNode.jsなどの環境で複数のプログラミング言語のコードを安全に実行するためのものです。WebAssemblyとWASIを通じてサンドボックス化された実行を実現し、Python、Ruby、JavaScript、SQLite、C/C++などの言語をサポートし、Webコンポーネント、MCPサーバーなどの統合方法を提供します。
Playwright MCPはPlaywrightに基づくブラウザ自動化サーバーで、構造化データを通じてLLMとウェブページのインタラクションを実現し、ピクセル入力を必要としません。
Magic Component Platform (MCP) はAI駆動のUIコンポーネント生成ツールで、自然言語での記述を通じて、開発者が迅速に現代的なUIコンポーネントを作成するのを支援し、複数のIDEとの統合をサポートします。
AWS MCPサーバーは、Model Context Protocolに基づく専用サーバーのセットであり、ドキュメント検索、知識ベース照会、CDKのベストプラクティス、コスト分析、画像生成など、さまざまなAWS関連機能を提供します。標準化されたプロトコルを通じてAIアプリケーションとAWSサービスの統合を強化することを目的としています。
Cipherは、プログラミングAIエージェント向けに設計されたオープンソースのメモリ層フレームワークです。MCPプロトコルを通じてさまざまなIDEとAIコーディングアシスタントと統合し、自動記憶生成、チーム記憶共有、デュアルシステム記憶管理などの核心機能を提供します。
mcp-proxyは、サーバーの転送プロトコル変換を実現するツールで、SSEとstdioの2つのモード間でのプロキシ変換をサポートし、異なるクライアントとサーバー間の通信の適合を容易にします。
Supabase MCPサーバーは、SupabaseプロジェクトとAIアシスタントを接続するツールです。Model Context Protocol(MCP)を通じて、大規模言語モデル(LLMs)と外部サービスのやり取りを標準化し、データベース管理、設定取得、データクエリなどの機能を実現します。
このプロジェクトは、Notion APIにMCPサーバーを実装し、モデルコンテキストプロトコルを通じてNotionコンテンツにアクセスし操作できるようにします。検索、コメント、ページの追加などの機能をサポートしています。
FastMCPは、TypeScriptに基づくフレームワークで、クライアントセッションをサポートするMCPサーバーを構築するために使用されます。ツール、リソース、プロンプトの簡単な定義を提供し、認証、セッション管理、画像と音声コンテンツの返却、ログ記録、エラー処理、SSE通信などの機能をサポートし、テストとデバッグ用のCLIツールも含まれています。
Exa MCP Serverは、AIアシスタント(Claudeなど)にウェブ検索機能を提供するサーバーで、Exa AI検索APIを通じてリアルタイムで安全にウェブ情報を取得できます。
Cogneeは、AIエージェントに記憶機能を提供するオープンソースプロジェクトです。モジュール化されたECLパイプラインを通じて動的な知識グラフを構築し、複数のデータソースと形式をサポートし、幻覚を減らし、コストを削減します。
ArXiv MCP Serverは、AIアシスタントとarXiv研究ライブラリをつなぐ橋渡しの役割を果たし、MCPプロトコルを通じて論文の検索と内容へのアクセス機能を実現します。
hyper - mcpはWebAssemblyプラグインに基づく高性能MCPサーバーで、コンテナレジストリを通じたプラグイン配布をサポートし、さまざまなAIアプリケーションシーンに適しています。