2026年3月,Google DeepMind升级Gemini API,推出多工具链与“上下文循环”机制。此举简化了开发流程,允许在单个请求中整合Google搜索、地图等内置工具与自定义函数。“上下文循环”实现了跨工具的自动化数据传递,提升了响应效率与任务处理能力。
谷歌推出Gemini Embedding2,这是首款基于Gemini架构的多模态嵌入模型,已在Gemini API和Vertex AI开放预览。该模型将文本、图像、视频、音频和文档等数据类型映射到统一嵌入空间,实现跨模态检索与分类,支持超过100种语言。
墨西哥开发者团队因操作失误将Google Gemini API密钥泄露至公网,48小时内产生8.2万美元巨额账单,远超平时月均180美元的费用。API密钥泄露风险巨大,开发者需谨慎保管。
2026年除夕,阿里巴巴开源新一代大模型千问Qwen3.5-Plus,性能媲美Gemini3Pro,成为全球最强开源大模型。该模型采用底层架构革新,参数3970亿但激活仅170亿,以更小规模超越万亿参数的Qwen3-Max,部署显存占用降低60%,长上下文推理吞吐量提升19倍。API成本低至每百万Token 0.8元,仅为Gemini3Pro的1/18。此外,它实现了从纯文本到原生多模态的跃迁。
自动提取和总结 arXiv 研究论文的 Python 工具。
Gemini Embedding 是一种先进的文本嵌入模型,通过 Gemini API 提供强大的语言理解能力。
Google Imagen 3通过Gemini API开放使用,每张图像成本0.03美元,可生成多种风格图像。
利用Gemini API生成小型应用
Openai
$2.8
输入tokens/百万
$11.2
输出tokens/百万
1k
上下文长度
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$6
$24
256
Moonshot
$4
$16
$10.5
Bytedance
$0.8
$8
Tencent
$1
32
Deepseek
$12
128
$0.4
该项目是一个概念验证(POC),展示了如何通过自定义主机实现模型上下文协议(MCP),用于测试代理系统。核心功能包括OpenAI兼容API、Google Gemini集成、流式响应支持及工具调用能力。
基于Gemini 2 API的图像生成MCP服务
一个基于Gemini API和Google搜索的MCP服务器,通过与AI助手(如Cline)结合使用,提供最新信息的智能回答功能。
基于Gemini API的文档查询MCP服务器,提供技术文档的智能问答服务。
AI Studio MCP Server是一个集成Google AI Studio/Gemini API的模型上下文协议服务器,提供支持文件、对话历史和系统提示的内容生成功能。
基于Google Gemini 2.5 Flash API的MCP图像生成与编辑服务器,支持文本生成图像、图像编辑、迭代创作和风格迁移功能
这是一个基于OpenRouter API的MCP服务器项目,提供网络搜索功能,使用特定的Gemini模型返回原始文本结果。
一个本地STDIO MCP服务器,提供搜索和检索Google Gemini API文档的工具,支持全文搜索、自动更新文档内容
GemSuite MCP是最全面的Gemini API集成服务器,通过智能模型选择实现最优性能与最低成本,支持多文件处理与复杂任务分析。
MCP Gemini API服务器是一个为Cursor和Claude设计的Google Gemini API代理服务,提供文本生成、图像分析、视频分析和网络搜索等功能。
这是一个基于Google Gemini API的MCP服务器,提供文本对话、图像生成和视频生成功能,可作为Codex MCP的替代方案。
该项目是一个基于Python的多MCP服务器管理框架,通过SSE协议实现与Google Gemini API的交互,包含日历管理和浏览器自动化两大功能模块,支持通过配置文件动态加载多个服务。
基于Gemini的上下文管理与缓存MCP服务器,支持2M token大上下文窗口,提供会话管理和API缓存功能。
一个MCP协议服务器,允许Claude和Gemini CLI通过Hummingbot API与多个加密货币交易所进行自动化交易交互,支持多服务器管理和Docker部署。
Gemini Bridge是一个轻量级MCP服务器,通过官方CLI连接AI编程助手与Google Gemini AI,支持多客户端无API成本交互。
GemSuite MCP是最全面的Gemini API集成服务器,通过智能模型选择提供最优性能、最低令牌成本和无缝集成,支持多种文件处理和复杂任务。
一个基于Gemini API的MCP服务器,提供AI驱动的网页搜索和摘要服务,能够合成信息并返回带引用的综合答案。
一个基于TypeScript的MCP服务器实现,通过直接调用Google Gemini API集成Gemini模型,支持最新Gemini 2.0 Flash模型并保持对话上下文。
基于Gemini API的高级推理与反思工具,支持多模型集成与自定义配置
一个结合FastAPI后端和Gradio前端的MCP基础应用,支持通过简单界面与AI模型交互,集成Google Gemini API实现论文搜索与分析功能。