谷歌推出新版Google Finance,整合AI深度搜索、预测市场数据和实时财报追踪功能,帮助普通用户理解复杂市场动态。核心亮点是AI深度搜索,用户输入金融问题如“苹果明年盈利前景”,系统自动搜索新闻和分析,提供专业级见解。
谷歌宣布在Google TV上推出Gemini语音助手取代Google Assistant,这是其将Gemini整合到所有平台战略的关键一步。升级后,用户可通过更先进的AI能力以自然对话方式访问内容和功能,例如处理复杂跨情境查询,如推荐适合不同喜好的电影。
xAI旗下Grok Imagine实现纯文本生成短视频,用户输入描述即可在17秒内获得带音效、动态镜头和专业画质的6-15秒视频,无需图像输入或编辑基础。这一升级打通“想法到成片”环节,以高速优势挑战OpenAI Sora和Google Veo的市场地位。
Google安全团队发现新型恶意软件PROMPTFLUX,能远程调用Gemini AI实时重写自身代码,动态生成恶意脚本,从而逃避安全检测。这种利用AI技术自我进化的特性使其具备极强的隐蔽性和威胁性。
Nano Banana 2 是由 Google DeepMind 开发的专业 AI 图像编辑器。
Google Gempix2是由Gemini 3驱动的图像编辑器,功能升级,输出高质量图像。
Google基于Gemini 3 Pro的AI图像编辑器,推理强,生成编辑能力出色
Google的Veo 3.1 AI视频生成器,可将文本或图片转为逼真的1080p视频
google
$2.16
输入tokens/百万
$18
输出tokens/百万
1M
上下文长度
-
2M
$0.72
$2.88
$144
$288
32k
32.8k
8k
kirankumarpetlu
这是一个基于Google Gemma-2B-IT基础模型,使用PEFT(参数高效微调)和LoRA技术进行优化的文本生成模型。该模型通过参数高效的方法在保持基础模型能力的同时,针对特定任务进行了优化。
vanta-research
Scout是VANTA Research基于Google Gemma 3 4B Instruct架构微调的专业语言模型,在约束感知推理和自适应问题解决方面表现出色,擅长侦察式情报收集、系统问题分解和自适应解决方案生成。
dario-mazzola
这是基于Google Gemma-3模型进行专门微调的文本生成模型,经过训练能够利用外部工具生成逐步计划。该模型在rewoo/planner_instruction_tuning_2k数据集上训练,使用LoRA技术进行高效微调。
shorecode
这是一个基于Google T5 Efficient Tiny架构的轻量级文本摘要生成模型,使用shorecode/summary-collection-200k-rows数据集训练,专门用于自动文本摘要任务,具有高效推理和资源占用低的特点。
edziocodes
基于google/medgemma-4b-it微调而来的版本,专门用于在OMAMA 256×256数据集上进行二元乳房X光图像分类。该模型通过LoRA(低秩适应)进行参数高效调整,在乳腺癌分类任务上表现出色,准确率从基础模型的12%提升至95%。
lapa-llm
Lapa LLM 12B PT是基于Google Gemma 3-12B开发的开源大语言模型,专门针对乌克兰语处理优化。由乌克兰多所高校研究团队开发,在乌克兰语处理方面表现卓越,具备高效的指令微调和多模态能力。
VaultGemma是谷歌推出的基于差分隐私技术预训练的轻量级语言模型,具有强大的隐私保护能力。它采用差分隐私随机梯度下降(DP-SGD)进行预训练,为训练数据提供数学隐私保证,参数少于10亿,适用于多种自然语言处理任务。
mlx-community
这是一个转换为MLX格式的文本嵌入模型,基于Google的EmbeddingGemma-300m模型转换而来,专门用于句子相似度计算和文本嵌入任务。模型采用BF16精度,适用于苹果芯片设备上的高效推理。
EmbeddingGemma 300M 4bit是Google开发的轻量级文本嵌入模型,专门针对MLX框架优化。该模型能够将文本转换为高质量的向量表示,适用于各种自然语言处理任务,特别是句子相似度计算和特征提取。
ggml-org
embeddinggemma-300m-qat-q8_0 GGUF 是一款基于Google embeddinggemma-300m模型的量化版本,专门用于特征提取和句子相似度计算。该模型经过量化优化,在保持较高精度的同时显著减小了模型大小和推理开销。
embeddinggemma-300M是一个经过量化优化的轻量级文本嵌入模型,基于Google的embeddinggemma架构,采用QAT(量化感知训练)和Q4_0量化技术,参数量为300M。该模型专门用于生成高质量的文本嵌入向量,支持句子相似度计算和特征提取等任务。
pytorch
这是由PyTorch团队开发的FP8量化版本Gemma-3-27B模型,基于google/gemma-3-27b-it进行FP8量化处理。该模型通过vLLM和Transformers两种方式支持高效推理,在保持模型质量的同时显著降低了内存使用并提升了推理速度。
alakxender
基于google/gemma-3-270m构建的轻量级迪维希语预训练模型,在包含新闻文章、维基百科内容和通用网页文本等大规模迪维希语文本数据上进行训练,为迪维希语相关任务提供强大支持。
Reubencf
gemma3-konkani 是基于 Google Gemma-3-4B-IT 模型微调的版本,专门针对 Konkani 语言进行了优化,使用 TRL 框架进行监督微调训练,适用于文本生成任务。
theprint
这是基于Google Gemma-3-270m-it微调的TiTan-Gemma3-0.27B模型的GGUF量化版本,提供多种精度选择,适用于llama.cpp等推理引擎,在保持模型性能的同时显著减小文件大小。
gaianet
Gemma 3 270M Instruct是Google开发的轻量级指令调优语言模型,基于270M参数规模,专为文本生成任务优化,支持中英文等多种语言。
Phonepadith
这是一个专门针对老挝语文本摘要任务进行微调的模型,基于Google Gemma 3-12B Instruct模型,使用超过10,000个老挝语监督样本进行训练,能够生成高质量的老挝语文本摘要。
这是Google Gemma 3 270M Instruct模型的4bit DWQ量化版本,专为MLX框架优化。该模型经过指令微调,支持对话交互,采用4bit DWQ量化技术减少内存占用,适合在Apple Silicon设备上高效运行。
NikolayKozloff
这是Google Gemma 3 270M模型的GGUF格式转换版本,由NikolayKozloff转换。该模型是一个27亿参数的文本生成模型,支持高效的推理部署。
bartowski
这是Google Gemma-3-270m-it模型的量化版本,使用llama.cpp进行imatrix量化处理,提供多种量化选项,旨在提升模型在不同硬件上的运行效率,让用户能够更便捷地使用该模型。
Coco AI是一个统一搜索平台,集成了企业应用和数据(如Google Workspace、Dropbox、GitHub等),提供跨平台搜索和AI驱动的团队聊天功能,旨在提升工作效率和协作体验。
Google Workspace MCP服务器是一个功能全面的多客户端协议服务器,通过自然语言控制Google日历、云端硬盘、Gmail、文档等全套办公套件,支持一键安装到Claude桌面端,提供高级OAuth认证和服务缓存。
一个基于Playwright的Node.js工具,能够绕过搜索引擎反爬机制执行Google搜索并提取结果,可作为命令行工具或MCP服务器为AI助手提供实时搜索能力。
这是一个Google日历的MCP服务器项目,提供与Google Calendar的集成功能,允许通过标准化接口读取、创建、更新和搜索日历事件。支持从图片添加事件、日历分析、出席情况检查、自动协调事件等功能。
该项目通过搭建Claude Code与Google Gemini AI的桥梁,实现在Claude Code环境中直接调用Gemini进行问答、代码审查和创意头脑风暴,提供便捷的AI协作工具。
G-Search MCP是一个基于Playwright的Google并行搜索服务,支持多关键词同时搜索和结构化结果返回。
该项目是一个MCP服务器,用于将代码部署到Google Cloud Run,支持通过AI代理、IDE和助手应用进行部署。
一个实现Claude Desktop与Google Gemini AI模型交互的MCP服务器项目
该项目提供了一个MCP服务器,用于将代码部署到Google Cloud Run服务,支持从AI辅助IDE、AI助手应用及代理SDK等多种方式进行部署。
一个基于SerpAPI的Google职位搜索MCP服务器,提供多语言支持、灵活搜索参数和智能错误处理。
Google表格与云端硬盘的MCP服务工具
一个结合Claude Code和Google Gemini AI的MCP服务器,通过多模型协作实现深度代码分析,Claude擅长本地上下文操作和CLI工作流,Gemini则利用其超大上下文窗口进行分布式系统调试和长轨迹分析。
一个连接YouTube与Google Sheets的MCP服务工具,支持视频搜索并自动保存结果到表格
一个基于TypeScript的MCP服务器,用于管理Google Tasks,提供任务创建、列表、删除、更新和状态切换功能,支持与LLM或其他应用集成。
该项目是一个概念验证(POC),展示了如何通过自定义主机实现模型上下文协议(MCP),用于测试代理系统。核心功能包括OpenAI兼容API、Google Gemini集成、流式响应支持及工具调用能力。
AI Studio MCP Server是一个集成Google AI Studio/Gemini API的模型上下文协议服务器,提供支持文件、对话历史和系统提示的内容生成功能。
一个基于Gemini API和Google搜索的MCP服务器,通过与AI助手(如Cline)结合使用,提供最新信息的智能回答功能。
这是一个与Google Drive集成的MCP服务器,支持文件列表、读取和搜索功能,能够自动转换Google Workspace文件格式并提供多种文件类型的原生格式访问。
Nexus MCP是一个强大的个人助手服务器,集成了Google日历、Obsidian笔记、Trello看板和网页解析功能,通过FastMCP构建提供统一数字生活管理接口。
该项目是一个基于Google Veo2模型的视频生成MCP服务器,支持通过文本提示或图像生成视频,并提供MCP资源访问功能。