字节跳动Seed AI团队发布数学推理模型Seed Prover1.5,在国际数学奥林匹克竞赛中表现优异,获得金牌。该模型基于Scaling Law理论,仅用16.5小时便解决IMO2025前五题,仅失一题,以35分达到金牌标准,成绩与谷歌Gemini相当,相比此前模型效率大幅提升。
Waymo正测试将谷歌Gemini大模型集成到无人驾驶出租车中,打造名为“Waymo出行助手”的车载AI伴侣。一份长达1200多行的内部指令曝光,显示该AI被设计为安全、克制、高度场景化的乘客服务引擎。
Jan团队发布300亿参数多模态大模型Jan-v2-VL-Max,专为长周期、高稳定性自动化任务设计,性能超越谷歌Gemini2.5Pro与DeepSeek R1。该模型重点解决多步任务中的“误差累积”和“失焦”问题,为开源智能体生态提供强大支持。
国产大模型MiniMax开源M2.1,以100亿参数稀疏架构在多语言编程、代码生成与工具调用上实现突破,在权威基准测试中超越谷歌、Anthropic等闭源旗舰模型,标志着开源编码模型性能进入新阶段。
免费AI检测器,可验证文本真伪,识别ChatGPT、Gemini等模型内容
Google推出最智能的Gemini 3模型,助力实现任何想法
可同时使用ChatGPT、Gemini等多模型,节省3 - 4倍时间,提升200%效率
AI Fiesta是一个让您与世界顶尖AI模型如ChatGPT、Gemini Pro、Claude、Perplexity、Deepseek和Grok交流的平台。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$6
$24
Baidu
128
$2
$20
TeichAI
本模型是基于Qwen3-4B-Thinking-2507基础模型,使用高推理难度的Gemini 3 Pro预览数据集进行蒸馏训练得到的模型。它专注于提升在编码和科学领域的复杂推理能力,通过特定数据集的训练,旨在将大型模型(如Gemini 3 Pro)的推理能力高效地迁移到较小规模的模型中。
MuXodious
Gemma 3n E4B IT 是谷歌推出的轻量级多模态开放模型,基于与Gemini模型相同的研究构建。该模型支持文本、音频和视觉输入,适用于多种任务,采用MatFormer架构实现高效参数利用。
本模型是基于Qwen3-4B架构的知识蒸馏模型,通过约5440万个由Gemini 2.5 Flash生成的标记进行训练,旨在整合Gemini-2.5 Flash的行为、推理过程和知识到单一数据集中。
prithivMLmods
Gemma 3 270M是谷歌推出的轻量级多模态模型,基于与Gemini系列相同的研究技术,支持文本和图像输入,具有32K上下文窗口,在问答、总结、图像理解和代码生成等任务上提供高质量输出。
unsloth
Gemma 3是Google推出的轻量级、最先进的开源模型家族,基于与Gemini模型相同的研究和技术构建。该模型具有多模态处理能力,支持文本和图像输入,并生成文本输出,适用于各种文本生成和图像理解任务。
Gemma 3是谷歌推出的轻量级、最先进的开放模型家族,基于与Gemini模型相同的研究和技术构建。具有多模态处理能力,支持文本和图像输入,并生成文本输出,适用于各种文本生成和图像理解任务。
Gemma 3是谷歌推出的轻量级、最先进的开源多模态模型家族,基于与Gemini模型相同的研究和技术构建。该270M版本是经过指令调优的模型,采用量化感知训练(QAT),能够在显著降低内存需求的同时保持与bfloat16相近的质量。
Gemma 3是谷歌推出的轻量级开源多模态模型系列,基于与Gemini相同技术构建。270M版本是其中最小规模模型,支持文本和图像输入,具备128K上下文窗口,适用于资源受限环境部署。
Gemma 3是谷歌推出的轻量级开源多模态模型家族,基于与Gemini相同的研究技术构建。270M版本是其中最小的指令微调模型,支持140多种语言,具有32K上下文长度,适用于资源受限环境下的文本生成任务。
Gemma 3是谷歌推出的轻量级、最先进的开源多模态模型家族,基于与Gemini模型相同的研究和技术构建。270M版本是其中最小的模型,能够处理文本和图像输入并生成文本输出,适用于多种文本生成和图像理解任务。
google
Gemma 3是Google推出的轻量级、最先进的多模态开放模型家族,基于与Gemini模型相同的研究和技术构建。该模型能够处理文本和图像输入并生成文本输出,具有128K的大上下文窗口,支持超过140种语言,提供从270M到27B的多种尺寸选择。
Gemma 3n是谷歌推出的轻量级、最先进的多模态开放模型,基于Gemini技术构建。专为低资源设备设计,支持文本、图像、视频和音频输入,生成文本输出。采用选择性参数激活技术,在4B参数规模下高效运行。
Gemma 3n-E2B-it 是 Google 推出的轻量级开源多模态模型,基于与 Gemini 相同技术构建,专为低资源设备优化。
Gemma 3n是Google推出的轻量级、最先进的开源多模态模型家族,基于与Gemini模型相同的研究和技术构建。支持文本、音频和视觉输入,适用于多种任务。
Gemma 3n是Google推出的轻量级、最先进的开源多模态模型家族,基于与Gemini模型相同的研究和技术构建,支持文本、音频和视觉输入。
iqbalamo93
Gemma 3是谷歌推出的轻量级多模态模型,基于与Gemini相同的技术构建。它支持文本和图像输入,输出文本,适用于文本生成和图像理解等多种任务,且模型尺寸多样,能在资源有限的环境中部署。
Gemma 3是Google推出的轻量级开放模型系列,基于Gemini技术构建,支持多模态输入和文本输出。
bespokelabs
由Bespoke Labs开发的7B参数规模开源图表理解视觉语言模型,在图表问答任务上超越Gemini-1.5-Pro等闭源模型
Gemma 3是谷歌基于Gemini技术构建的轻量级开放模型系列,12B版本采用量化感知训练(QAT)技术,支持多模态输入和128K上下文窗口。
Gemma 3是谷歌推出的轻量级、最先进的开放模型家族,基于与Gemini模型相同的研究和技术构建。该27B版本采用量化感知训练(QAT),能够在显著降低内存需求的同时保持与bfloat16相近的质量,具备多模态处理能力和128K大上下文窗口。
Zen MCP是一个多模型AI协作开发服务器,为Claude和Gemini CLI等AI编码助手提供增强的工作流工具和跨模型上下文管理。它支持多种AI模型的无缝协作,实现代码审查、调试、重构等开发任务,并能保持对话上下文在不同工作流间的延续。
一个实现Claude Desktop与Google Gemini AI模型交互的MCP服务器项目
基于MCP的多智能体深度研究系统,整合LinkUp搜索、CrewAI协调和Gemini大模型,通过Streamlit提供交互界面。
该项目是一个概念验证(POC),展示了如何通过自定义主机实现模型上下文协议(MCP),用于测试代理系统。核心功能包括OpenAI兼容API、Google Gemini集成、流式响应支持及工具调用能力。
AI Studio MCP Server是一个集成Google AI Studio/Gemini API的模型上下文协议服务器,提供支持文件、对话历史和系统提示的内容生成功能。
该项目是一个基于Google Cloud Vertex AI Gemini模型的MCP服务器,提供丰富的工具集用于代码辅助和通用问答,支持网络搜索增强回答、文档解释生成、文件系统操作等功能。
一个结合Claude Code和Google Gemini AI的MCP服务器,通过多模型协作实现深度代码分析,Claude擅长本地上下文操作和CLI工作流,Gemini则利用其超大上下文窗口进行分布式系统调试和长轨迹分析。
一个基于TypeScript的MCP服务器,集成Google Gemini Pro模型
一个基于Gemini Flash 2 AI模型的数据分析与研究MCP服务器,提供数据解析、智能分析、报告生成和邮件自动发送功能。
LangExtract MCP Server是一个基于FastMCP的服务器,通过Google Gemini模型从非结构化文本中提取结构化信息,为Claude Code等AI助手提供文本信息提取能力,支持智能缓存和持久连接。
一个集成了LangChain、自定义MCP服务器和谷歌Gemini AI模型的聊天平台,提供增强的对话功能。
这是一个基于OpenRouter API的MCP服务器项目,提供网络搜索功能,使用特定的Gemini模型返回原始文本结果。
GemForge是将Google的Gemini AI与MCP生态系统连接的企业级工具,提供实时网络访问、高级推理、代码分析和多文件处理等功能,支持60多种文件格式,具备智能模型选择和强大的错误处理机制。
LOTUS-MCP是一个开源的模型协调协议,整合Mistral和Gemini两大AI模型,提供统一接口、上下文共享和工具集成,实现智能路由和成本优化。
该项目展示了如何利用Google的Gemini 2.5 Pro模型通过函数调用功能与MCP协议下的航班搜索工具交互,实现自然语言查询航班信息并返回格式化结果。
一个基于Gemini Flash 2 AI模型的数据分析与研究MCP服务器,提供数据解析、统计分析、研究报告生成和邮件自动发送功能。
一个基于Google Gemini模型的MCP服务器,提供文本生成图像和图像转换功能,支持高质量图像生成、智能文件名生成和本地存储。
GemSuite MCP是最全面的Gemini API集成服务器,通过智能模型选择实现最优性能与最低成本,支持多文件处理与复杂任务分析。
一个MCP服务器项目,提供基于token数量自动选择OpenAI O3或Google Gemini 2.5 Pro模型的服务,支持文件路径递归嵌入提示词,适用于代码审查和复杂问题解决。
Yellhorn MCP是一个模型上下文协议服务器,通过集成Gemini和OpenAI能力为代码助手提供全代码库上下文支持,实现开发任务规划、代码评审和隔离环境创建。