Liquid AI 公司于2025年7月发布第二代 Liquid Foundation Models(LFM2),采用创新的“liquid”架构,旨在成为市场上最快的设备端基础模型。其高效的训练和推理能力使小模型能媲美云端大型语言模型。LFM2 最初提供350M、700M 和1.2B 参数的密集检查点版本。
Google AI旅行工具升级:Flight Deals覆盖200多国,支持60种语言比价;桌面端新增Canvas侧边栏,实时整合航班、酒店及评价,生成行程草稿;美国用户全面开放代理预订,机票酒店直订即将上线。用户只需输入自然语言需求,即可获取低价航线并一键生成完整行程。
阿里巴巴AI编程工具Qoder本周起原生支持JetBrains系列IDE,包括IntelliJ、PyCharm等。新增Agent Mode自动选择AI模型提升编码效率,Inline Chat提供实时AI对话功能,强化开发辅助体验。
vivo在2025开发者大会上发布蓝心3B端侧多模态推理大模型。这款30亿参数模型是业内首个集成五大核心能力的"One Model",经过一年训练优化,实现移动设备本地部署复杂多模态AI能力的重大突破,确立行业领先地位。
先进AI将2D图像秒转3D模型,首模免费,适用于多领域
使用 Nano Banana API 进行图片生成与编辑,直接访问 NanoBanana AI Model API。
AI Mode 是谷歌搜索中的一项实验性生成式 AI 功能,可帮助用户解决复杂问题。
A tool for integrating private data with AI large language models.
nvidia
NVIDIA Qwen2.5-VL-7B-Instruct-FP4是阿里巴巴Qwen2.5-VL-7B-Instruct模型的量化版本,采用优化的Transformer架构,支持多模态输入(文本和图像),适用于多种AI应用场景。该模型通过TensorRT Model Optimizer进行FP4量化,在NVIDIA GPU上提供高效的推理性能。
NVIDIA DeepSeek R1 FP4 v2是基于DeepSeek AI的DeepSeek R1模型进行FP4量化的文本生成模型,采用优化的Transformer架构,可用于商业和非商业用途。该模型通过TensorRT Model Optimizer进行量化,相比FP8版本显著减少了磁盘大小和GPU内存需求。
mykor
A.X 4.0 Light 是由 SKT AI Model Lab 开发的轻量级大语言模型,基于 Qwen2.5 构建,针对韩语理解和企业部署优化。
ZeroXClem
高性能、多领域AI模型,采用MergeKit的Model Stock融合技术构建,整合了多个精调优化的Qwen3-4B模型,在结构化输出和技术应用场景中展现出卓越的推理、编程及多步骤问题解决能力。
dcarpintero
基于ModernBERT的轻量级模型,专注于识别恶意提示注入攻击,提供AI安全防护。
AICodexLab
该模型是基于ModernBERT-base微调的AI生成文本检测器,能够区分AI生成文本(如ChatGPT、DeepSeek、Claude等)与人类撰写文本。
MCP Unity是一个实现Model Context Protocol的Unity编辑器扩展,通过Node.js服务器桥接AI助手与Unity项目的交互,提供菜单执行、对象选择、组件更新等功能。
AbletonMCP是一个连接Ableton Live和Claude AI的集成工具,通过Model Context Protocol(MCP)实现双向通信,让AI可以直接控制和操作Ableton Live进行音乐创作和制作。
MCP Unity是一个实现Model Context Protocol的Unity编辑器扩展,允许AI助手与Unity项目交互,提供Unity与Node.js服务器之间的桥梁。
AWS MCP Servers是一套基于Model Context Protocol的专用服务器,提供多种AWS相关功能,包括文档检索、知识库查询、CDK最佳实践、成本分析、图像生成等,旨在通过标准化协议增强AI应用与AWS服务的集成。
Supabase MCP Server是一个连接Supabase项目与AI助手的工具,通过Model Context Protocol(MCP)标准化大型语言模型(LLMs)与外部服务的交互,实现数据库管理、配置获取和数据查询等功能。
iMCP是一款macOS应用,通过AI连接用户的数字生活,支持与Claude Desktop等客户端通过Model Context Protocol (MCP)协议交互,提供日历、联系人、位置、地图、消息、提醒和天气等多种功能。
Context7 MCP是一个为AI编程助手提供实时、版本特定文档和代码示例的服务,通过Model Context Protocol直接集成到提示中,解决LLM使用过时信息的问题。
Kubectl MCP Tool 是一个基于 Model Context Protocol (MCP) 的 Kubernetes 交互工具,允许 AI 助手通过自然语言与 Kubernetes 集群进行交互。
LINE Bot MCP Server是一个实现Model Context Protocol (MCP)的服务,用于将AI智能体与LINE官方账号连接,支持推送文本和富媒体消息、广播消息及获取用户资料等功能。
这是一个关于Web3 Model Context Protocol (MCP) 服务器的精选列表,涵盖了链交互、交易、DeFi、市场数据、工具和社交等多个类别。MCP是一个开放协议,标准化了应用程序如何向LLM提供上下文,类似于AI应用程序的USB-C端口。DeMCP是第一个去中心化的MCP网络,专注于为代理提供自研和开源的MCP服务,支持加密支付,并结合TEE和区块链注册表重新定义了MCP的安全性和可靠性。
302AI BrowserUse MCP Server是一个基于AI的浏览器自动化服务器,通过Model Context Protocol (MCP)实现自然语言控制浏览器和网络研究。
Smithery CLI是一个用于管理Model Context Protocol (MCP)服务器的命令行工具,支持多种AI客户端,提供安装、卸载、查看和运行MCP服务器的功能。
Awesome MCP Servers 是一个全面的Model Context Protocol (MCP)服务器集合,涵盖了7158个MCP服务器,分为33个类别,包括AI集成、艺术媒体、浏览器自动化、云服务、数据库、开发者工具、文件系统、金融、游戏、硬件、医疗、基础设施、知识管理、位置地图、市场营销、监控、多媒体处理、操作系统、项目管理、科学研究、安全、社交媒体、旅行交通、实用工具和版本控制等。
MCP-Mem0是一个为AI代理提供长期记忆功能的模板实现,集成了Model Context Protocol (MCP)服务器和Mem0,支持记忆的存储、检索和语义搜索。
Xcode MCP Server是一个基于Model Context Protocol的服务器,为AI助手提供全面的Xcode集成功能,包括项目管理、文件操作、构建测试、CocoaPods和Swift包管理以及iOS模拟器工具等。
该项目为LangChain提供Model Context Protocol(MCP)工具调用支持,通过MCP工具包实现与AI模型的交互,如文件读取和摘要生成。
Apify MCP服务器是一个实现Model Context Protocol(MCP)的服务,允许AI助手通过SSE或Stdio与Apify平台上的各种Actor交互,执行数据抓取、网页搜索等任务。
Claude Talk to Figma MCP是一个基于Model Context Protocol的插件,允许Claude Desktop等AI工具直接与Figma交互,实现AI辅助设计功能。项目通过WebSocket服务器连接AI客户端和Figma插件,支持文档分析、元素创建修改、文本处理等设计操作。
Unreal Engine生成式AI支持插件,集成多种前沿LLM/GenAI模型API,提供游戏开发中的AI集成层支持,包括OpenAI、Claude、Deepseek等模型的聊天、结构化输出等功能,并支持Model Control Protocol(MCP)实现场景对象控制、蓝图生成等高级功能。
Office-Word-MCP-Server是一个基于Model Context Protocol的服务器,为AI助手提供创建、读取和操作Microsoft Word文档的标准接口,支持丰富的文档编辑功能。