国产AI公司MiniMax发布2025年财报,显示其全球市场营收增长迅猛,全年总收入达7900万美元。财报同时揭示,尽管海外市场成为主要收入来源,AI行业整体仍处于高投入、高亏损的长期发展阶段。
OpenAI与亚马逊达成深度战略合作,亚马逊将投资500亿美元,首期15亿美元立即到位,剩余资金将分批注入。此次合作不仅是资金支持,更涉及底层架构整合,标志着AI产业的重要整合事件。
中国AI模型在全球使用量上首次超越美国。OpenRouter数据显示,2月9日至15日,以MiniMax、月之暗面等为代表的中国开源模型周调用量达4.1亿,标志着全球AI竞争格局发生重大变化。
可灵3.0Pro以1240分登顶全球视频大模型榜首,展现了强大的技术实力。该系列共有7款模型进入前15名,在视频真实感、一致性和可控性方面均处于行业领先地位。这一成就标志着AI生成视频技术迈入新阶段。
Seedance 2.0:AI视频生成器,基于文本或图像创建15秒电影级视频。
AI邮件助手,自动处理房产管理邮件,每周节省超15小时回复时间
无广告实时天气、15天预报、雷达图及AI天气洞察
使用Wan 2.6 AI将文本和图像转化为专业15秒视频,适配多平台。
Bigcode
$2
输入tokens/百万
-
输出tokens/百万
8
上下文长度
AlekseyCalvin
这是一个针对 Z-Image Turbo DiT 模型的低秩适配器(LoRA),专门用于生成具有历史照片风格的图像。该模型基于 1900-1910 年代摄影师 Sergey Prokudin-Gorsky 的 150 张彩色照片训练而成,能够为现代图像生成注入独特的早期彩色摄影美学,如暖色调光晕和特定色彩质感。
prithivMLmods
VibeThinker-1.5B是微博AI推出的15亿参数密集语言模型,基于Qwen2.5-Math-1.5B微调,专门针对数学和算法编码问题设计。采用'频谱到信号原理'框架训练,在多个数学竞赛测试中超越规模更大的模型,训练成本约7800美元,支持最长约40k词元的输出。
mlx-community
VibeThinker-1.5B的4位量化版本,基于MLX框架针对苹果芯片优化,是一个拥有15亿参数的密集语言模型,专门用于数学推理和算法编码问题
ServiceNow-AI
Apriel-H1-15b-Thinker 是一款拥有150亿参数的混合推理模型,结合了Transformer注意力机制和Mamba状态空间层,在推理、数学和编码等方面表现出色,具备高效性和可扩展性。
almanach
Gaperon-Young-1125-1B 是一个拥有15亿参数的双语(法语-英语)语言模型,由法国国家信息与自动化研究所(Inria Paris)的ALMAnaCH团队开发。该模型在约3万亿个高质量令牌上训练,特别注重语言质量和通用文本生成能力,而非基准测试优化。
Mungert
Apriel-1.5-15b-Thinker 是一款由 ServiceNow SLAM 实验室开发的多模态推理模型,参数规模为150亿。它具备强大的文本和图像理解与推理能力,采用‘思考-回答’的链式推理模式,旨在以较小的模型规模实现与大型模型相媲美的性能。
unsloth
Apertus是一款由瑞士AI开发的全开放多语言大语言模型,提供70亿和80亿两种参数规模。该模型支持超过1000种语言,使用完全合规且开放的训练数据,性能可与闭源模型相媲美。Apertus在15T标记上进行预训练,采用分阶段课程训练方法,支持长达65,536个标记的上下文长度。
cpatonn
Apriel-1.5-15b-Thinker是ServiceNow开发的150亿参数多模态推理模型,具备文本和图像推理能力,性能可媲美比它大10倍的模型,在人工分析指数上获得52分,在企业领域基准测试中表现优异。
birder-project
这是一个基于RoPE(旋转位置编码)的Vision Transformer模型,参数规模为150M,采用14x14的patch大小。该模型在约2100万张图像的多样化数据集上进行了预训练,可作为通用视觉特征提取器使用。
Apriel-1.5-15B-Thinker是一个专为图像理解与推理设计的150亿参数多模态模型,采用中期训练方法而非RLHF训练。本版本为适用于苹果芯片的MLX量化版本,具有内存占用小、启动速度快的特点。
Apriel-1.5-15b-Thinker是ServiceNow Apriel SLM系列中的多模态推理模型,具有150亿参数,能够在文本和图像推理任务上与规模大10倍的模型竞争。该模型通过中期训练方案实现了卓越的推理能力,无需图像SFT训练或强化学习即可达到SOTA性能。
yonigozlan
EdgeTAM是SAM 2的轻量化变体,专为设备端视频分割和跟踪而设计。它比SAM 2快22倍,在iPhone 15 Pro Max上可达16 FPS,支持实时视频对象分割和跨帧跟踪。
nineninesix
KaniTTS是一款高速、高保真的文本转语音模型,专为实时对话式人工智能应用而优化。该模型采用两阶段处理流程,结合大语言模型和高效音频编解码器,在Nvidia RTX 5080上生成15秒音频的延迟仅需约1秒,MOS自然度评分达4.3/5,支持英语、中文、日语等多种语言。
Apriel-1.5-15b-Thinker是ServiceNow开发的多模态推理模型,拥有150亿参数,在文本和图像推理任务上表现出色,性能可与比其大10倍的模型竞争。
ibm-granite
Granite-4.0-Micro-Base是IBM开发的仅解码器长上下文语言模型,基于约15万亿标记从头训练,采用四阶段训练策略。该模型专为各类文本生成任务设计,支持多语言和填空式代码补全功能。
olegshulyakov
Qwen2.5-Coder-1.5B是一款基于Qwen系列基础模型开发的代码生成专用模型,拥有15亿参数,专注于代码相关的文本生成任务。该模型经过GGUF量化处理,支持多种部署方式,为开发者提供高效的代码生成解决方案。
LiquidAI
LFM2-Audio-1.5B是Liquid AI推出的首个端到端音频基础模型,专为低延迟和实时对话设计。该模型仅15亿参数,能够实现无缝的对话交互,其能力可与参数规模大得多的模型相媲美。
NetoAISolutions
TSLAM-15B是由NetoAI Solutions开发的150亿参数电信专用语言模型,基于混合专家架构,针对电信领域专业知识、高级推理和面向行动的工作流程进行了优化。
jinaai
Jina Code Embeddings 是一款专为代码检索设计的嵌入模型,基于Qwen2.5-Coder-0.5B构建,支持15种以上编程语言,适用于文本到代码、代码到代码、代码到文本、代码到补全等多种代码检索任务以及技术问答。
DavidAU
这是一个基于Qwen 3平台的编码/编程模型,具备完整的推理能力,速度极快。在中等硬件上每秒能处理超过150个token,仅使用CPU时每秒也能处理50个以上token。它是一个通用的编码模型,适用于生成代码块、构思编码思路以及快速生成代码草稿。
Ludus FastMCP是一个基于Model Context Protocol(MCP)的Python服务器,用于通过AI助手自动化管理Ludus网络靶场环境。它提供157个工具,涵盖靶场生命周期管理、场景部署、模板创建、Ansible角色管理和安全监控集成等功能,支持通过自然语言命令控制网络靶场。
Cocos Creator MCP Server Plugin 是一个为Cocos Creator 3.8+设计的全面MCP服务器插件,通过标准化协议实现AI助手与编辑器的交互,提供一键安装和151种工具支持,覆盖98%的编辑器控制功能。
一个基于TypeScript的MCP服务器,提供AntV图表生成能力,支持15+种图表类型
一个提供BALLDONTLIE体育数据API访问的MCP服务器,涵盖NBA、WNBA、NFL、MLB等15个主要体育联赛的200多个数据端点,包括球队、球员、比赛、统计数据、赔率等全面信息。
Python Alfresco MCP Server是一个基于FastMCP 2.0框架构建的Alfresco内容服务模型上下文协议服务器,提供全文搜索、文档管理、元数据操作等15种工具,支持STDIO/HTTP/SSE多种传输协议,适用于Alfresco社区版和企业版。
MockLoop MCP是全球首个AI原生的API测试平台,集成了Model Context Protocol (MCP),通过AI驱动的场景生成、自动化测试执行和智能分析能力,彻底改变了API测试方式。该平台提供5种AI提示、15种场景资源、16种测试工具和10种上下文工具,支持双端口架构和状态化测试工作流,适用于企业级合规和高级分析需求。
自动收集、总结、记录和发布Vibe Coding会话的MCP服务器,提供15种文档管理工具,支持多语言和多平台发布。
Loaded Vibes是一个企业级Agentic TypeScript Web开发框架,提供包含Next.js 15、React 19、GenAIScript编排器、MCP服务等技术的全栈开发环境与工具链,支持通过18个标准化开发周期进行规范化的项目构建与管理。
Feather Code MCP Server是一个为Claude Desktop设计的GitHub集成工具,通过Model Context Protocol(MCP)提供15种GitHub功能工具,支持自动仓库检测、多种认证方式和零配置使用。