GoogleはGemini 3 Proを検索エンジンのAI概要機能に導入し、複雑なクエリを処理。スマートルーティングで難易度を自動判別し、軽量モデルで簡易応答、複雑な推論はGeminiで深く処理し、効率と精度を向上。....
ByteDanceのSeed AIチームが数学推論モデル「Seed Prover1.5」を発表。国際数学オリンピックで金メダル相当の成績を達成し、Scaling Law理論に基づき16.5時間でIMO2025の5問中4問を解決。Google Geminiと同等の35点を獲得し、効率性が大幅に向上。....
Perplexity AIは、ProおよびMax会員向けにGoogleの軽量モデルGemini 3 Flashを導入。低遅延・高スループットで、応答速度とコスト効率を向上させ、検索体験の高速化を実現。....
GoogleがGemini Deep Researchを発表。Gemini 3 Proモデルを基に高品質なレポートを生成し、Interactions APIで開発者に開放。サードパーティアプリへの統合を可能にし、「エージェントAI」時代の展開を加速。....
専門のAI画像生成とエディターで、2 - 5秒で2K/4Kの高品質画像を生成し、多言語に対応しています。
GoogleがGemini 3 ProをベースにしたAI画像エディター。推論能力が強く、生成と編集能力に優れています。
Google Gemini Pro 2.0 を手軽に利用できるモバイルクライアントです。リアルタイムでの会話と複数のAIエージェントに対応しています。
Gemini 2.0は、Googleが発表した最新世代の生成AIモデルで、Flash、Flash-Lite、Proの3つのバージョンがあります。
Google
$0.7
入力トークン/百万
$2.8
出力トークン/百万
1k
コンテキスト長
$2.1
$17.5
Bytedance
$0.8
$2
128
-
Anthropic
$105
$525
200
Chatglm
$4
$16
$3
$9
$8.75
$70
32
Huawei
Openai
Sensetime
MCP AI Hubは、Model Context Protocolに基づくサーバーで、LiteLMの統一インターフェイスを通じて100以上のAIモデル(OpenAI、Anthropic、Googleなどを含む)へのアクセスを提供し、複数の伝送プロトコルと柔軟な設定をサポートします。
OmniMindはオープンソースのPythonライブラリで、Model Context Protocol(MCP)の統合を簡素化し、AIエージェント、ワークフロー、自動化開発をサポートします。即挿即用機能を提供し、複数のツールが組み込まれており、Google Geminiに基づいたスマートな応答を提供し、開発者や初心者がAIアプリケーションを迅速に構築するのに適しています。
G2N MCP GoogleカレンダーSSEサーバーは、Model Context Protocolを実装したサーバーで、Server-Sent Eventsを通じてGoogleカレンダーの統合機能を提供し、AIモデルやアプリケーションがカレンダーイベントを管理できるようにします。
Image Gen MCP Serverは、Model Context Protocol(MCP)標準プロトコルを通じて、さまざまなLLMチャットボットにクロスプラットフォーム、多モデルの画像生成機能を提供する汎用AI画像生成サービスです。OpenAIとGoogleの複数の画像モデルをサポートし、テキスト対話からビジュアルコンテンツへのシームレスな変換を実現します。
ナプキンAI MCPサーバーは非公式のコミュニティによって維持されるツールで、Model Context Protocolを通じてAIアシスタント(Claudeなど)に情報グラフ、マインドマップ、フローチャートなどのビジュアルコンテンツを生成する機能を提供します。複数の出力形式(SVG、PNG、PPT)とストレージバックエンド(ローカル、S3、Google Driveなど)をサポートし、非同期処理、自動ポーリング、リトライメカニズムが含まれています。
Model Context Protocolに基づく多モデルAIコードレビューおよび分析サーバーです。OpenAI、Anthropic、Google Geminiなどの複数のAIモデルを並列に実行し、コード品質チェック、セキュリティ分析、多エージェントコンセンサスレビューを行います。
Model Context Protocolに基づくサービスで、Google PageSpeed Insightsのウェブページパフォーマンス分析機能を提供し、AIモデルが標準化されたインターフェースを通じてウェブページの読み込み性能を評価できるようにします。
Gemini MCPサーバープロジェクトはModel Context Protocol(MCP)サービスを実装し、Claude DesktopがGoogleのGemini AIモデルと相互に接続できるようにします。完全なMCPプロトコルサポート、リアルタイム応答ストリーム、安全なAPIキー処理、および設定可能なモデルパラメータを提供し、TypeScriptで実装されています。
MCPHubsはNext.jsをベースに構築されたウェブサイトで、AnthropicのModel Context Protocol (MCP)に関連するオープンソースプロジェクトを展示します。GitHub APIを通じてプロジェクト情報を取得し、Google Gemini Proモデルを使用してAI分析を行い、プロジェクトとMCPの関連性を評価し、プロジェクトリスト、詳細展示、READMEレンダリング機能を提供します。
このプロジェクトは、Google Gemini 2.0モデルをベースに構築されたModel Context Protocol (MCP)サーバーのチュートリアルで、完全なコード実装を含み、MCP標準を通じてAIモデルが外部ツール(Brave検索APIなど)にシームレスにアクセスする方法を示し、柔軟なアーキテクチャ設計の例を提供します。
このプロジェクトはModel Context Protocol(MCP)仕様を実装したサーバーで、MCPクライアント(Claudeデスクトップ版など)が標準化されたインターフェイスを通じてGoogleのGemini AIモデルと相互作用できるようにするブリッジとして機能します。複数のGeminiモデルと機能呼び出しをサポートし、単発の質問、複数回の会話、関数呼び出しなどのツールを提供し、ローカルまたはDockerでのデプロイが可能です。