谷歌抢先推出Gemini Deep Research,基于Gemini 3 Pro大模型,能生成高质量报告,并通过Interactions API向开发者开放,允许将高级研究能力嵌入第三方应用,加速布局“代理式AI”时代。
谷歌发布新版Gemini Deep Research研究代理,基于Gemini 3 Pro模型。该智能体保留生成报告功能,新增交互API,首次允许开发者将谷歌SATA模型研究功能集成到自有应用中,增强开发者控制权。升级后能整合海量信息并处理大量上下文数据。
Google推出Gemini API的“文件搜索工具”,作为全托管RAG系统,可将私有文件直接转化为知识库。用户无需处理数据分块、嵌入生成等步骤,通过API即可实现高效检索与生成。工具核心是端到端集成,自动完成文件上传、索引和检索流程。
苹果计划2026年推出新一代Siri,代号"Apple Intelligence"。此次升级将彻底重构底层架构和交互逻辑,核心亮点是首次引入谷歌Gemini大模型技术支持。值得注意的是,苹果并非直接调用公开API,而是与谷歌深度合作。这标志着沉寂多年的Siri将迎来重大变革。
Gemini Embedding 是一种先进的文本嵌入模型,通过 Gemini API 提供强大的语言理解能力。
Google Imagen 3通过Gemini API开放使用,每张图像成本0.03美元,可生成多种风格图像。
利用Gemini API生成小型应用
使用Gemini API进行图像物体检测的Streamlit应用
Openai
$2.8
输入tokens/百万
$11.2
输出tokens/百万
1k
上下文长度
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$6
$24
256
Moonshot
$4
$16
$10.5
Bytedance
$0.8
$8
Tencent
$1
32
Deepseek
$12
128
$0.4
一个基于Gemini API和Google搜索的MCP服务器,通过与AI助手(如Cline)结合使用,提供最新信息的智能回答功能。
基于Gemini 2 API的图像生成MCP服务
AI Studio MCP Server是一个集成Google AI Studio/Gemini API的模型上下文协议服务器,提供支持文件、对话历史和系统提示的内容生成功能。
基于Gemini API的文档查询MCP服务器,提供技术文档的智能问答服务。
该项目是一个概念验证(POC),展示了如何通过自定义主机实现模型上下文协议(MCP),用于测试代理系统。核心功能包括OpenAI兼容API、Google Gemini集成、流式响应支持及工具调用能力。
基于Google Gemini 2.5 Flash API的MCP图像生成与编辑服务器,支持文本生成图像、图像编辑、迭代创作和风格迁移功能
这是一个基于OpenRouter API的MCP服务器项目,提供网络搜索功能,使用特定的Gemini模型返回原始文本结果。
该项目是一个基于Python的多MCP服务器管理框架,通过SSE协议实现与Google Gemini API的交互,包含日历管理和浏览器自动化两大功能模块,支持通过配置文件动态加载多个服务。
GemSuite MCP是最全面的Gemini API集成服务器,通过智能模型选择实现最优性能与最低成本,支持多文件处理与复杂任务分析。
MCP Gemini API服务器是一个为Cursor和Claude设计的Google Gemini API代理服务,提供文本生成、图像分析、视频分析和网络搜索等功能。
一个本地STDIO MCP服务器,提供搜索和检索Google Gemini API文档的工具,支持全文搜索、自动更新文档内容
基于Gemini的上下文管理与缓存MCP服务器,支持2M token大上下文窗口,提供会话管理和API缓存功能。
基于Gemini API的高级推理与反思工具,支持多模型集成与自定义配置
一个结合FastAPI后端和Gradio前端的MCP基础应用,支持通过简单界面与AI模型交互,集成Google Gemini API实现论文搜索与分析功能。
一个基于TypeScript的MCP服务器实现,通过直接调用Google Gemini API集成Gemini模型,支持最新Gemini 2.0 Flash模型并保持对话上下文。
Gemini Bridge是一个轻量级MCP服务器,通过官方CLI连接AI编程助手与Google Gemini AI,支持多客户端无API成本交互。
GemSuite MCP是最全面的Gemini API集成服务器,通过智能模型选择提供最优性能、最低令牌成本和无缝集成,支持多种文件处理和复杂任务。
一个基于Gemini API的MCP服务器,提供AI驱动的网页搜索和摘要服务,能够合成信息并返回带引用的综合答案。
该项目实现了一个MCP服务器,用于与Wolfram Alpha API交互,使聊天应用能执行计算查询并获取结构化知识。包含基于Gemini的MCP客户端示例,展示如何将大语言模型连接到MCP服务器,实现与Wolfram Alpha知识引擎的实时交互。
Gemini Cloud Assist MCP服务器是一个连接MCP客户端与Google Cloud Gemini Cloud Assist API的工具,允许用户使用自然语言理解、管理和排查Google Cloud环境问题。