谷歌推出由AI大模型Gemini支持的免费SAT模拟考试服务,学生只需输入简单提示即可获得模拟试题,完成后AI会提供反馈,帮助减轻备考压力、提高效率。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://app.aibase.com/zh1、淘宝天猫出重拳!新版Siri将支持语音与文本双输入,并集成于iOS27及其全线操作系统中,同时借助谷歌Gemini模型提升性能。
谷歌Gemini大模型通过快速迭代,推动其AI云业务盈利轨迹扭转。Gemini API调用量半年增长超140%,企业级采纳加速,标志商业模式转折点。
谷歌在Gemini应用中新增“立即回答”功能,旨在减少用户等待焦虑。用户可一键跳过深度思考环节,快速获取答案。该功能适用于Pro版和思考版模型,按钮旁会显示加载状态。
用于AI代理的LLM路由器,支持USDC支付,有折扣和多模型选择
免费AI检测器,可验证文本真伪,识别ChatGPT、Gemini等模型内容
Google推出最智能的Gemini 3模型,助力实现任何想法
可同时使用ChatGPT、Gemini等多模型,节省3 - 4倍时间,提升200%效率
Openai
$2.8
输入tokens/百万
$11.2
输出tokens/百万
1k
上下文长度
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
Baidu
128
$6
$24
TeichAI
本模型是基于Qwen3-4B-Thinking-2507基础模型,使用高推理难度的Gemini 3 Pro预览数据集进行蒸馏训练得到的模型。它专注于提升在编码和科学领域的复杂推理能力,通过特定数据集的训练,旨在将大型模型(如Gemini 3 Pro)的推理能力高效地迁移到较小规模的模型中。
MuXodious
Gemma 3n E4B IT 是谷歌推出的轻量级多模态开放模型,基于与Gemini模型相同的研究构建。该模型支持文本、音频和视觉输入,适用于多种任务,采用MatFormer架构实现高效参数利用。
本模型是基于Qwen3-4B架构的知识蒸馏模型,通过约5440万个由Gemini 2.5 Flash生成的标记进行训练,旨在整合Gemini-2.5 Flash的行为、推理过程和知识到单一数据集中。
prithivMLmods
Gemma 3 270M是谷歌推出的轻量级多模态模型,基于与Gemini系列相同的研究技术,支持文本和图像输入,具有32K上下文窗口,在问答、总结、图像理解和代码生成等任务上提供高质量输出。
unsloth
Gemma 3是Google推出的轻量级、最先进的开源模型家族,基于与Gemini模型相同的研究和技术构建。该模型具有多模态处理能力,支持文本和图像输入,并生成文本输出,适用于各种文本生成和图像理解任务。
Gemma 3是谷歌推出的轻量级、最先进的开放模型家族,基于与Gemini模型相同的研究和技术构建。具有多模态处理能力,支持文本和图像输入,并生成文本输出,适用于各种文本生成和图像理解任务。
Gemma 3是谷歌推出的轻量级、最先进的开源多模态模型家族,基于与Gemini模型相同的研究和技术构建。该270M版本是经过指令调优的模型,采用量化感知训练(QAT),能够在显著降低内存需求的同时保持与bfloat16相近的质量。
Gemma 3是谷歌推出的轻量级开源多模态模型系列,基于与Gemini相同技术构建。270M版本是其中最小规模模型,支持文本和图像输入,具备128K上下文窗口,适用于资源受限环境部署。
Gemma 3是谷歌推出的轻量级开源多模态模型家族,基于与Gemini相同的研究技术构建。270M版本是其中最小的指令微调模型,支持140多种语言,具有32K上下文长度,适用于资源受限环境下的文本生成任务。
Gemma 3是谷歌推出的轻量级、最先进的开源多模态模型家族,基于与Gemini模型相同的研究和技术构建。270M版本是其中最小的模型,能够处理文本和图像输入并生成文本输出,适用于多种文本生成和图像理解任务。
google
Gemma 3是Google推出的轻量级、最先进的多模态开放模型家族,基于与Gemini模型相同的研究和技术构建。该模型能够处理文本和图像输入并生成文本输出,具有128K的大上下文窗口,支持超过140种语言,提供从270M到27B的多种尺寸选择。
Gemma 3n是谷歌推出的轻量级、最先进的多模态开放模型,基于Gemini技术构建。专为低资源设备设计,支持文本、图像、视频和音频输入,生成文本输出。采用选择性参数激活技术,在4B参数规模下高效运行。
Gemma 3n-E2B-it 是 Google 推出的轻量级开源多模态模型,基于与 Gemini 相同技术构建,专为低资源设备优化。
Gemma 3n是Google推出的轻量级、最先进的开源多模态模型家族,基于与Gemini模型相同的研究和技术构建。支持文本、音频和视觉输入,适用于多种任务。
Gemma 3n是Google推出的轻量级、最先进的开源多模态模型家族,基于与Gemini模型相同的研究和技术构建,支持文本、音频和视觉输入。
iqbalamo93
Gemma 3是谷歌推出的轻量级多模态模型,基于与Gemini相同的技术构建。它支持文本和图像输入,输出文本,适用于文本生成和图像理解等多种任务,且模型尺寸多样,能在资源有限的环境中部署。
Gemma 3是Google推出的轻量级开放模型系列,基于Gemini技术构建,支持多模态输入和文本输出。
bespokelabs
由Bespoke Labs开发的7B参数规模开源图表理解视觉语言模型,在图表问答任务上超越Gemini-1.5-Pro等闭源模型
Gemma 3是谷歌基于Gemini技术构建的轻量级开放模型系列,12B版本采用量化感知训练(QAT)技术,支持多模态输入和128K上下文窗口。
Gemma 3是谷歌推出的轻量级、最先进的开放模型家族,基于与Gemini模型相同的研究和技术构建。该27B版本采用量化感知训练(QAT),能够在显著降低内存需求的同时保持与bfloat16相近的质量,具备多模态处理能力和128K大上下文窗口。
Zen MCP是一个多模型AI协作开发服务器,为Claude和Gemini CLI等AI编码助手提供增强的工作流工具和跨模型上下文管理。它支持多种AI模型的无缝协作,实现代码审查、调试、重构等开发任务,并能保持对话上下文在不同工作流间的延续。
一个实现Claude Desktop与Google Gemini AI模型交互的MCP服务器项目
基于MCP的多智能体深度研究系统,整合LinkUp搜索、CrewAI协调和Gemini大模型,通过Streamlit提供交互界面。
该项目是一个概念验证(POC),展示了如何通过自定义主机实现模型上下文协议(MCP),用于测试代理系统。核心功能包括OpenAI兼容API、Google Gemini集成、流式响应支持及工具调用能力。
该项目是一个基于Google Cloud Vertex AI Gemini模型的MCP服务器,提供丰富的工具集用于代码辅助和通用问答,支持网络搜索增强回答、文档解释生成、文件系统操作等功能。
一个基于TypeScript的MCP服务器,集成Google Gemini Pro模型
AI Studio MCP Server是一个集成Google AI Studio/Gemini API的模型上下文协议服务器,提供支持文件、对话历史和系统提示的内容生成功能。
一个结合Claude Code和Google Gemini AI的MCP服务器,通过多模型协作实现深度代码分析,Claude擅长本地上下文操作和CLI工作流,Gemini则利用其超大上下文窗口进行分布式系统调试和长轨迹分析。
这是一个基于OpenRouter API的MCP服务器项目,提供网络搜索功能,使用特定的Gemini模型返回原始文本结果。
LangExtract MCP Server是一个基于FastMCP的服务器,通过Google Gemini模型从非结构化文本中提取结构化信息,为Claude Code等AI助手提供文本信息提取能力,支持智能缓存和持久连接。
GemForge是将Google的Gemini AI与MCP生态系统连接的企业级工具,提供实时网络访问、高级推理、代码分析和多文件处理等功能,支持60多种文件格式,具备智能模型选择和强大的错误处理机制。
一个基于Gemini Flash 2 AI模型的数据分析与研究MCP服务器,提供数据解析、智能分析、报告生成和邮件自动发送功能。
一个集成了LangChain、自定义MCP服务器和谷歌Gemini AI模型的聊天平台,提供增强的对话功能。
GemSuite MCP是最全面的Gemini API集成服务器,通过智能模型选择实现最优性能与最低成本,支持多文件处理与复杂任务分析。
一个MCP服务器项目,提供基于token数量自动选择OpenAI O3或Google Gemini 2.5 Pro模型的服务,支持文件路径递归嵌入提示词,适用于代码审查和复杂问题解决。
Gemini DeepSearch MCP是一个自动化研究代理,利用Google Gemini模型和Google搜索进行深度多步骤网络研究,生成高质量、带引用的答案。
一个基于Gemini Flash 2 AI模型的数据分析与研究MCP服务器,提供数据解析、统计分析、研究报告生成和邮件自动发送功能。
一个基于Google Gemini模型的MCP服务器,提供文本生成图像和图像转换功能,支持高质量图像生成、智能文件名生成和本地存储。
LOTUS-MCP是一个开源的模型协调协议,整合Mistral和Gemini两大AI模型,提供统一接口、上下文共享和工具集成,实现智能路由和成本优化。
Yellhorn MCP是一个模型上下文协议服务器,通过集成Gemini和OpenAI能力为代码助手提供全代码库上下文支持,实现开发任务规划、代码评审和隔离环境创建。