Liquid AI 公司于2025年7月发布第二代 Liquid Foundation Models(LFM2),采用创新的“liquid”架构,旨在成为市场上最快的设备端基础模型。其高效的训练和推理能力使小模型能媲美云端大型语言模型。LFM2 最初提供350M、700M 和1.2B 参数的密集检查点版本。
阿里巴巴通义千问团队在NeurIPS 2025获最佳论文奖,论文《Attention Gating Makes Better Foundation Models》提出“滑动门”机制,在标准注意力后添加可学习门控,动态筛选关键头和token参与下游计算。实验证明,1.7B稠密模型性能媲美15B MoE模型。本届大会投稿2万篇,录取率仅25%,竞争激烈,该论文是四篇获奖作品中唯一中国成果。
AWS推出Amazon Bedrock Custom Model Import功能,支持用户部署20亿和120亿参数的GPT-OSS开源模型。该功能允许企业将现有应用迁移至AWS平台,同时保持API兼容性。用户只需上传模型文件至Amazon S3,通过控制台启动导入,AWS将自动处理GPU配置和推理服务器搭建,简化部署流程。
vivo在2025开发者大会上发布蓝心3B端侧多模态推理大模型。这款30亿参数模型是业内首个集成五大核心能力的"One Model",经过一年训练优化,实现移动设备本地部署复杂多模态AI能力的重大突破,确立行业领先地位。
先进AI将2D图像秒转3D模型,首模免费,适用于多领域
使用 Nano Banana API 进行图片生成与编辑,直接访问 NanoBanana AI Model API。
Roblox Foundation Model for 3D Intelligence。
一个用于将几乎所有内容转换为Markdown格式的Model Context Protocol服务器。
openai
$63
输入tokens/百万
$504
输出tokens/百万
400k
上下文长度
ModelCloud
这是一个基于MiniMax M2基础模型的4bit W4A16量化版本,由ModelCloud的@Qubitum使用GPT-QModel工具进行量化。该模型专门针对文本生成任务进行了优化,在保持较好性能的同时显著减少了模型大小和推理资源需求。
nvidia
NVIDIA Qwen2.5-VL-7B-Instruct-FP4是阿里巴巴Qwen2.5-VL-7B-Instruct模型的量化版本,采用优化的Transformer架构,支持多模态输入(文本和图像),适用于多种AI应用场景。该模型通过TensorRT Model Optimizer进行FP4量化,在NVIDIA GPU上提供高效的推理性能。
NVIDIA Qwen3-14B FP4 模型是阿里云 Qwen3-14B 模型的量化版本,采用优化的 Transformer 架构,是一个自回归语言模型。该模型使用 TensorRT Model Optimizer 进行量化,将权重和激活量化为 FP4 数据类型,可在 NVIDIA GPU 加速系统上实现高效推理。
NVIDIA DeepSeek R1 FP4 v2是基于DeepSeek AI的DeepSeek R1模型进行FP4量化的文本生成模型,采用优化的Transformer架构,可用于商业和非商业用途。该模型通过TensorRT Model Optimizer进行量化,相比FP8版本显著减少了磁盘大小和GPU内存需求。
NVIDIA Qwen3-30B-A3B FP4模型是阿里云Qwen3-30B-A3B模型的量化版本,采用优化的Transformer架构,是自回归语言模型。该模型使用TensorRT Model Optimizer进行FP4量化,将每个参数的比特数从16位减少到4位,使磁盘大小和GPU内存需求减少约3.3倍,同时保持较高的性能表现。
NVIDIA Qwen3-235B-A22B FP4 模型是阿里云 Qwen3-235B-A22B 模型的量化版本,基于优化的 Transformer 架构,是一个自回归语言模型。该模型使用 TensorRT Model Optimizer 进行量化,将权重和激活值量化为 FP4 数据类型,显著减少了存储和计算需求。
mykor
A.X 4.0 Light 是由 SKT AI Model Lab 开发的轻量级大语言模型,基于 Qwen2.5 构建,针对韩语理解和企业部署优化。
luisgasco
基于ModernBERT-base微调的模型,在评估集上F1分数为0.3833
ZeroXClem
高性能、多领域AI模型,采用MergeKit的Model Stock融合技术构建,整合了多个精调优化的Qwen3-4B模型,在结构化输出和技术应用场景中展现出卓越的推理、编程及多步骤问题解决能力。
miscovery
基于编码器-解码器架构的多语言变压器模型,支持文本摘要、翻译和问答系统任务。
syscv-community
SAM-HQ是Segment Anything Model(SAM)的增强版本,能够生成更高质量的物体掩码,特别适合处理复杂结构的物体。
SAM-HQ是Segment Anything Model(SAM)的增强版本,能够从点或框等输入提示生成更高质量的对象掩码。
modelscope
Nexus-Gen是一个将大语言模型的语言推理能力与扩散模型的图像生成能力相融合的统一模型
mergekit-community
这是一个基于多个12B参数规模模型的合并版本,采用model_stock方法融合了7个不同特性的预训练语言模型,以增强综合能力。
spacematt
基于Qwen2.5架构的14B参数规模代码生成与理解模型,通过Model Stock方法融合多个专业编码模型而成
DharunSN
基于Stable Diffusion 2.1-base训练的控制网络权重,专用于服装生成任务,支持通过姿态条件图控制服装生成
这是一个基于Qwen2.5-14B架构的多模型融合结果,采用Model Stock融合方法,结合了22个不同来源的14B参数规模模型。
nadirzn
该模型是一个基于Transformers库的模型,具体功能未明确说明。
Miaomiao-13579
这是一个基于扩散模型(Diffusion Model)的无条件图像生成模型,专门用于生成蝴蝶类别的图像。
lukajova
这是一个基于扩散模型(Diffusion Model)的无条件图像生成模型,专门针对蝴蝶图像进行了微调。
MCP Unity是一个实现Model Context Protocol的Unity编辑器扩展,通过Node.js服务器桥接AI助手与Unity项目的交互,提供菜单执行、对象选择、组件更新等功能。
AbletonMCP是一个连接Ableton Live和Claude AI的集成工具,通过Model Context Protocol(MCP)实现双向通信,让AI可以直接控制和操作Ableton Live进行音乐创作和制作。
AWS MCP Servers是一套基于Model Context Protocol的专用服务器,提供多种AWS相关功能,包括文档检索、知识库查询、CDK最佳实践、成本分析、图像生成等,旨在通过标准化协议增强AI应用与AWS服务的集成。
MCP Unity是一个实现Model Context Protocol的Unity编辑器扩展,允许AI助手与Unity项目交互,提供Unity与Node.js服务器之间的桥梁。
mcp-golang是一个非官方的Go语言实现的Model Context Protocol库,支持快速构建MCP服务器和客户端,提供类型安全、低代码量、模块化和双向通信等特性。
Supabase MCP Server是一个连接Supabase项目与AI助手的工具,通过Model Context Protocol(MCP)标准化大型语言模型(LLMs)与外部服务的交互,实现数据库管理、配置获取和数据查询等功能。
iMCP是一款macOS应用,通过AI连接用户的数字生活,支持与Claude Desktop等客户端通过Model Context Protocol (MCP)协议交互,提供日历、联系人、位置、地图、消息、提醒和天气等多种功能。
该项目是一个集成Sonar API的MCP服务器实现,为Claude提供实时网络搜索能力。包含系统架构、工具配置、Docker部署及多平台集成指南。
MiniMax Model Context Protocol (MCP) 是一个官方服务器,支持与强大的文本转语音、视频/图像生成API交互,适用于多种客户端工具如Claude Desktop、Cursor等。
Context7 MCP是一个为AI编程助手提供实时、版本特定文档和代码示例的服务,通过Model Context Protocol直接集成到提示中,解决LLM使用过时信息的问题。
Kubectl MCP Tool 是一个基于 Model Context Protocol (MCP) 的 Kubernetes 交互工具,允许 AI 助手通过自然语言与 Kubernetes 集群进行交互。
LINE Bot MCP Server是一个实现Model Context Protocol (MCP)的服务,用于将AI智能体与LINE官方账号连接,支持推送文本和富媒体消息、广播消息及获取用户资料等功能。
这是一个关于Web3 Model Context Protocol (MCP) 服务器的精选列表,涵盖了链交互、交易、DeFi、市场数据、工具和社交等多个类别。MCP是一个开放协议,标准化了应用程序如何向LLM提供上下文,类似于AI应用程序的USB-C端口。DeMCP是第一个去中心化的MCP网络,专注于为代理提供自研和开源的MCP服务,支持加密支付,并结合TEE和区块链注册表重新定义了MCP的安全性和可靠性。
302AI BrowserUse MCP Server是一个基于AI的浏览器自动化服务器,通过Model Context Protocol (MCP)实现自然语言控制浏览器和网络研究。
GitLab MCP服务器是一个基于Model Context Protocol的项目,提供与GitLab账户交互的全面工具集,包括代码审查、合并请求管理、CI/CD配置等功能。
一个基于Model Context Protocol的Redis数据库操作服务,提供多种Redis命令工具
一个基于Model Context Protocol (MCP)的B站视频搜索服务器,提供API接口支持视频内容搜索、分页查询及视频信息返回,包含LangChain调用示例和测试脚本。
Search1API MCP Server是一个基于Model Context Protocol (MCP)的服务器,提供搜索和爬取功能,支持多种搜索服务和工具。
iOS模拟器MCP服务器是一个通过Model Context Protocol(MCP)与iOS模拟器交互的工具,支持获取模拟器信息、控制UI交互和检查UI元素等功能。
Linear MCP Server是一个已弃用的Model Context Protocol服务器,用于通过MCP协议与Linear问题跟踪系统集成,允许LLM与Linear问题进行交互。