GEOマーケティングを行う前、ブランドはローカルなシナリオにおいてユーザーとAIがどのようにやり取りしているか、たとえば言語、課題、検索意図などをしばしば見過ごしてしまいます。これらを理解していないと、地域向けターゲティングの効果は限定的になります。例えば、ある中国製ヘッドホンブランドは東南アジアでマーケティングを行う際に、シンガポールのユーザーが「地下鉄通勤時のノイズキャンセリング機能」に注目していることに気づきました。
腾讯がAI人材を獲得、清華大学博士の龐天宇氏が混元大モデルチームに参画し、首席研究科学者兼マルチモーダル強化学習責任者に就任。95年以降生まれのエリートで、高1で清華大学に推薦入学、2017年に卒業後、シンガポールでAI研究に従事。....
メタは、イタリアの規制当局の圧力により、WhatsAppのサードパーティAIロボットのポリシーを調整し、特定の地域の開発者に対しメッセージ単位で料金を支払う「メッセージごとの課金」モードを通じて再びサービスにアクセスできるようにする予定です。以前は、メタが自社のAI製品を保護するために、ChatGPTなどのサードパーティロボットをブロックしていました。
グーグルのGeminiシリーズAIモデル「Snow Bunny」の内部リークが発覚。このモデルは画期的なチェックポイントと呼ばれており、一度の操作で完全なアプリケーションを構築できることが語られており、その強力な機能が業界から注目を集めている。
プロフェッショナルなローカルストーリーボードワークステーション。動画のインポート、AI分析と生成をサポートしています。
ブラウザベースのAIウェブサイトビルダーで、HTMLを生成・編集でき、サブスクリプション制限がなく、コードをエクスポートできます。
Kaelは、ファイルのアップロードとリアルタイムストリーミング応答をサポートするAIチャットアシスタントで、研究活動を支援します。
GoAIはAI駆動の株式分析プラットフォームで、リアルタイムシグナルの追跡およびデータ駆動型投資意思決定をサポートしています。
Google
$0.49
入力トークン/百万
$2.1
出力トークン/百万
1k
コンテキスト長
Openai
$2.8
$11.2
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$1
$10
256
Baidu
128
$6
$24
$4
$16
$2
$20
ubergarm
これはai-sage/GigaChat3-10B-A1.8B-bf16モデルのGGUF量子化バージョンで、高精度のQ8_0から極度に圧縮されたsmol-IQ1_KTまで、さまざまな量子化オプションを提供し、さまざまなハードウェア条件でのデプロイメントニーズを満たします。このモデルは32Kのコンテキスト長をサポートし、MLAアーキテクチャを採用し、対話シナリオに最適化されています。
allenai
Olmo 3は、Allen Institute for AIによって開発された次世代の言語モデルファミリーで、7Bと32Bの指令と思考のバリエーションを含んでいます。このモデルは、長鎖思考において優れた性能を発揮し、数学やコーディングなどの推論タスクの性能を大幅に向上させます。すべてのコード、チェックポイント、およびトレーニングの詳細は公開され、言語モデル科学の発展を促進します。
Olmo 3は、Allen Institute for AI (Ai2)によって開発された全く新しい32Bパラメータの言語モデルファミリーで、Base、Instruct、Thinkなどのバリエーションが含まれています。このモデルはDolma 3データセットを基に訓練され、65,536の長文脈処理をサポートし、言語モデル科学の発展を推進することを目的としています。モデルは完全にオープンソースで、Apache 2.0ライセンスに従っています。
unsloth
Qwen3-VL-2B-InstructはQwenシリーズの中で最も強力なビジュアル言語モデルで、卓越したテキスト理解と生成能力、深いビジュアル認知と推論能力、長いコンテキストサポート、強力な空間およびビデオ動的理解能力を備えています。このモデルは2Bのパラメータ規模を採用し、命令対話をサポートし、マルチモーダルAIアプリケーションに適しています。
TheStageAI
TheWhisper-Large-V3-Turboは、OpenAI Whisper Large V3モデルの高性能ファインチューニング版で、TheStage AIによって多プラットフォームのリアルタイム、低遅延、低消費電力の音声テキスト変換推論に最適化されています。ストリーミング文字起こし、単語のタイムスタンプ、拡張可能なパフォーマンスをサポートし、リアルタイム字幕、会議、デバイス端末の音声インターフェイスなどのシーンに適しています。
nineninesix
KaniTTSは、リアルタイム対話型AIアプリケーション向けに最適化された高速、高音質のテキスト音声変換モデルです。2段階パイプラインを用いて、大規模言語モデルと高効率オーディオコーデックを組み合わせ、卓越した速度とオーディオ品質を実現します。このモデルはスペイン語をサポートし、4億のパラメータを持ち、サンプリングレートは22kHzです。
citizenplain
これはWan2.1-T2V-14BモデルをベースにトレーニングされたLoRAアダプターで、テキストからビデオへの変換タスクに特化しています。このモデルはAIツールキットを使用してトレーニングされ、ビデオ生成アプリケーションをサポートします。
nvidia
NVIDIA GPT-OSS-120B Eagle3は、OpenAIのgpt-oss-120bモデルをベースに最適化されたバージョンで、ハイブリッドエキスパート(MoE)アーキテクチャを採用し、総パラメータ数が1200億、アクティブなパラメータ数が50億です。このモデルは商用および非商用の使用をサポートし、テキスト生成タスクに適しており、特にAIエージェントシステムやチャットボットなどのアプリケーション開発に適しています。
synap5e
これはOstrisによるAIツールキットを基に訓練されたテキストから動画へのLoRAモデルで、Wan2.2-T2V-A14Bをベースモデルとして使用し、テキストから動画への変換タスクをサポートし、関連分野のアプリケーションに強力なサポートを提供します。
KaniTTSは、リアルタイム対話型AIアプリケーション向けに最適化された高速かつ高忠実度のテキスト音声変換モデルです。2段階のパイプラインアーキテクチャを採用し、大規模言語モデルと効率的なオーディオコーデックを組み合わせることで、卓越した速度と音質を実現し、複数の言語をサポートし、エッジ/サーバーデプロイメントに適しています。
mradermacher
ConfTuner-MinistralはMistralアーキテクチャに基づく量子化大規模言語モデルで、信頼性の高いAIシナリオに特化して微調整され、テキスト生成と信頼度推定機能をサポートしています。このモデルは複数の量子化バージョンを提供し、異なるリソース制約環境に適しています。
ibm-granite
Granite-4.0-H-Smallは、IBMが開発した320億パラメータの長文脈指令モデルで、企業向けAIアシスタントの構築に特化して設計され、複数の言語と専門的なアプリケーションシーンをサポートしています。
Granite-4.0-MicroはIBMが開発した30億パラメータの長文脈指令モデルで、優れた指令遵守能力とツール呼び出し能力を持ち、複数の言語をサポートし、商用アプリケーションやAIアシスタントのシナリオに適しています。
Olmo 3は、Allen Institute for AIによって開発された全く新しい7Bパラメータの言語モデルシリーズで、Transformerアーキテクチャに基づき、Dolma 3データセットで訓練され、言語モデル科学の発展を推進することを目的としています。モデルはBase、Instruct、Thinkなどの複数のバリエーションを提供し、最大65,536の文脈長をサポートします。
NVIDIA Qwen2.5-VL-7B-Instruct-FP4は、アリババのQwen2.5-VL-7B-Instructモデルの量子化バージョンで、最適化されたTransformerアーキテクチャを採用し、マルチモーダル入力(テキストと画像)をサポートし、さまざまなAIアプリケーションシナリオに適しています。このモデルはTensorRT Model Optimizerを使用してFP4量子化され、NVIDIA GPU上で効率的な推論性能を提供します。
NVIDIA Qwen3-32B FP4モデルは、アリババクラウドのQwen3-32Bモデルの量子化バージョンで、最適化されたTransformerアーキテクチャを使用し、重みと活性化をFP4データ型に量子化することで、効率的な推論を実現します。このモデルは、商用および非商用用途をサポートし、さまざまなAIアプリケーションシナリオに適しています。
これはNVIDIAがアリババのQwen3-14BモデルをFP8で量子化したバージョンで、最適化されたTransformerアーキテクチャを採用し、131Kのコンテキスト長をサポートし、さまざまなAIアプリケーションシナリオに適しています。
NVIDIA Qwen3-14B FP4モデルは、アリババのQwen3-14Bモデルの量子化バージョンで、FP4データ型を用いて最適化され、TensorRT-LLMによる効率的な推論が可能です。このモデルはNVIDIA GPU加速システム向けに設計されており、AIエージェントシステム、チャットボット、RAGシステムなどの様々なAIアプリケーションシーンに適しており、世界中での商用および非商用利用がサポートされています。
samunder12
Llama 3.1 8B Instructをベースに微調整されたGGUF量子化モデルで、強勢的で断固とした、かつ挑発的なAIのキャラクター設定を持ち、ロールプレイングやクリエイティブなライティングシーンに最適化されており、CPUまたはGPUでのローカル推論をサポートしています。
NVIDIA-Nemotron-Nano-9B-v2はNVIDIAが最初から訓練した大規模言語モデルで、推論および非推論タスク用に設計されています。Mamba2-Transformer混合アーキテクチャを採用し、多言語処理をサポートし、制御可能な推論能力を備え、ユーザーが思考予算を指定でき、商用アプリケーションやAIエージェントシステムで優れた性能を発揮します。
Einoは、Golang用に設計されたLLMアプリケーション開発フレームワークで、シンプルで拡張可能で信頼性が高く効率的なコンポーネント抽象化と編成機能により、AIアプリケーションの開発プロセスを簡素化することを目的としています。豊富なコンポーネントライブラリ、強力なグラフ編成機能、完全なストリーム処理サポート、および高度に拡張可能なアスペクトメカニズムを提供し、開発からデプロイまでの全サイクルのツールチェーンを網羅しています。
Haiku RAGは、LanceDB、Pydantic AI、Doclingを基盤とした高度な検索強化生成システムです。ハイブリッド検索、再ランキング、質問応答エージェント、多エージェント研究プロセスをサポートし、ローカルファーストのドキュメント処理とMCPサーバー統合を提供します。
Zen MCPは多モデルAI協調開発サーバーで、ClaudeやGemini CLIなどのAIコーディングアシスタントに強化されたワークフローツールとモデル間のコンテキスト管理を提供します。これは複数のAIモデルのシームレスな協調をサポートし、コードレビュー、デバッグ、リファクタリングなどの開発タスクを実現し、異なるワークフロー間で会話のコンテキストを維持することができます。
Sail は、ストリーム処理、バッチ処理、および計算集約型(AI)ワークロードを統一することを目的としたプロジェクトで、Spark SQL と Spark DataFrame API の代替手段を提供し、シングルマシンと分散環境の両方をサポートします。
Genkitは、AI駆動のアプリケーションを構築するためのオープンソースフレームワークで、Node.jsとGoのライブラリを提供し、複数のAIモデルとベクトルデータベースの統合をサポートし、開発ツールとプラグインエコシステムを含んでいます。
XcodeBuild MCPは、AIアシスタントとMCPクライアントにXcode関連のツールを統合するサーバーで、Xcodeプロジェクト管理、シミュレーター制御、アプリユーティリティなどの機能をサポートし、開発プロセスの自動化を実現します。
hyper - mcpはWebAssemblyプラグインに基づく高性能MCPサーバーで、コンテナレジストリを通じたプラグイン配布をサポートし、さまざまなAIアプリケーションシーンに適しています。
デスクトップコマンダーMCPは、Claudeデスクトップアプリケーションがターミナルコマンドを実行し、ファイルシステムを管理できるAIアシスタントツールです。コードの検索、編集、プロセス管理、リモートファイルの読み取りなどの機能をサポートします。
Microsoft公式のMCPサーバーのコレクションで、Azure、GitHub、Microsoft 365、FabricなどのさまざまなサービスのAIアシスタント統合ツールを提供します。ローカルとリモートの展開をサポートし、開発者が標準化されたプロトコルを通じてAIモデルをさまざまなデータソースやツールに接続できるように支援します。
これはWeb3モデルコンテキストプロトコル(MCP)サーバーの精選リストで、チェーンのやり取り、取引、DeFi、市場データ、ツール、ソーシャルなどの複数のカテゴリをカバーしています。MCPは、アプリケーションがLLMにコンテキストを提供する方法を標準化するオープンプロトコルで、AIアプリケーションのUSB - Cポートのようなものです。DeMCPは最初の分散型MCPネットワークで、エージェントに独自開発およびオープンソースのMCPサービスを提供し、暗号通貨による支払いをサポートし、TEEとブロックチェーンレジストリを組み合わせてMCPのセキュリティと信頼性を再定義しています。
Perplexity MCP Serverは、PerplexityのAIモデルを利用して、クエリの複雑度を自動的に分析し、最適なモデルを選択してリクエストを処理するインテリジェントな研究アシスタントです。検索、推論、深掘り研究の3種類のツールをサポートしています。
LINE Bot MCPサーバーは、Model Context Protocol (MCP)を実装したサービスで、AIエージェントをLINE公式アカウントに接続し、テキストとリッチメディアメッセージのプッシュ、メッセージのブロードキャスト、ユーザープロファイルの取得などの機能をサポートします。
AWS MCPは、自然言語でAWSリソースをクエリし管理するAIアシスタントサービスで、複数のアカウント、複数のリージョン、および安全な資格情報管理をサポートします。
軽量級のMCPサーバーで、ClaudeなどのAIアシスタントにリアルタイムの天気データの照会と解析機能を提供します。ローカルとリモートの2種類のデプロイ方式をサポートし、Dockerコンテナ化の解決策も含まれています。
Perplexity MCP Serverは、PerplexityのAIモデルを利用して、自動クエリ複雑度検出と最適なモデルルーティング機能を提供するインテリジェントな研究アシスタントで、検索、推論、深度研究の3種類のツールをサポートしています。
MaaFrameworkに基づくMCPサーバーで、AIアシスタントにAndroidデバイスとWindowsデスクトップの自動化機能を提供し、OCR認識、クリック、スライド、テキスト入力などの操作をサポートし、操作プロセスを再利用可能なPipelineに変換できます。
Crawl4AI RAG MCPサーバーは、ウェブクローラーとRAG機能を統合したAIエージェントサービスで、スマートURL検出、再帰的クローリング、並列処理、ベクトル検索をサポートし、AIコーディングアシスタントに強力な知識取得と検索機能を提供することを目的としています。
安全なDockerコンテナコードサンドボックス環境で、AIアプリケーションに隔離された実行空間を提供し、複数のプログラミング環境とファイル操作をサポートします。
PMATはゼロコンフィギュレーションのAIコードコンテキスト生成ツールで、コード品質分析、技術的負債評価、ミューテーションテスト、リポジトリ健全性評価、意味検索などの機能を提供し、17種類以上のプログラミング言語をサポートし、MCPプロトコルを通じてClaude CodeなどのAIアシスタントと統合することができます。
Unreal Engineの生成型AIサポートプラグインで、最新のLLM/GenAIモデルAPIを統合し、ゲーム開発におけるAI統合層のサポートを提供します。OpenAI、Claude、Deepseekなどのモデルのチャット、構造化出力などの機能を備え、Model Control Protocol(MCP)をサポートしてシーンオブジェクトの制御やブループリントの生成などの高度な機能を実現します。