小米宣布未来三年投入超600亿元布局AI,2026年研发与资本开支将达160亿元,加速向AI科技巨头转型。
小米2025年财报亮眼:总收入4572.87亿元,同比增长25%;调整后净利润391.66亿元,激增43.8%。智能手机与汽车业务双轮驱动,推动公司进入强劲增长期。研发投入创新高,2.5万名工程师支撑技术突破,体现雷军对底层技术的持续投入。
小米发布MiMo-V2系列大模型,并联动五大主流Agent框架,向全球开发者开放为期一周的免费API接口,旨在加速AI技术生态构建,扩大其全球影响力。
小米集团雷军在2026年中国发展高层论坛年会上宣布,电脑版AI智能体“龙虾”(MiClaw)已列入开发计划。此前,手机版MiClaw已开启小范围封测,并在春季发布会上释放跨端协作信号。随着小米自研大模型MiMo-V2-Pro全平台上线,MiClaw功能全面更新并开放体验,该AI智能体具备实际任务执行能力。
数小时完成文献综述,搜索数百万篇科研论文,含图表数据,材料研发可提前试用。
小米首个推理大模型MiMo开源,专为推理任务设计,性能卓越。
快速生成个性化和富有表现力的3D会说话面部模型
可控角色视频合成技术
Deepseek
$4
输入tokens/百万
$12
输出tokens/百万
128
上下文长度
Chatglm
-
$16
32
$2
$8
Huawei
XiaomiMiMo
米模具身模型(MiMo-Embodied)是一款强大的跨具身视觉语言模型,在自动驾驶和具身AI任务中均展现出了卓越的性能。它是首个将这两个关键领域相结合的开源视觉语言模型,显著提升了在动态物理环境中的理解和推理能力。
MiMo Audio是小米开发的音频语言模型,通过大规模预训练展现出强大的少样本学习能力。该模型突破了传统模型依赖特定任务微调的局限,在语音智能、音频理解等任务中表现出色,在开源模型中达到先进水平。
MiMo Audio是一款基于大规模预训练的音频语言模型,在语音智能和音频理解基准测试中取得了开源模型的SOTA性能。该模型展现出强大的少样本学习能力,能够泛化到训练数据中未包含的任务,支持语音转换、风格迁移和语音编辑等多种音频任务。
bartowski
这是XiaomiMiMo的MiMo-VL-7B-SFT-2508模型的量化版本,使用llama.cpp进行优化处理,旨在提升模型在特定硬件上的运行性能。该模型是一个70亿参数的视觉语言模型,支持图像到文本的生成任务。
这是小米MiMo-VL-7B-RL-2508模型的GGUF量化版本,使用llama.cpp的imatrix选项进行量化处理,支持多种量化级别,适用于不同的硬件配置和性能需求。
allura-forge
MiMo是小米专为推理任务从头开始训练的大语言模型系列,通过优化预训练和后训练策略,在数学和代码推理任务上展现出卓越性能。项目开源了7B参数规模的多个版本,包括基础模型、SFT模型和RL模型。
benxh
这是XiaomiMiMo/MiMo-VL-7B-RL-2508模型的GGUF量化版本,采用Q6_K量化级别。该模型是一个7B参数规模的多模态视觉语言模型,支持图像和文本的联合理解与生成任务。
MiMo-VL是一款紧凑且强大的视觉语言模型,结合了原生分辨率ViT编码器、MLP投影器和MiMo-7B语言模型,在多模态推理等任务中表现出色。该模型在多个基准测试中表现优异,具备思维控制功能,用户体验显著提升。
MiMo-VL是一款紧凑且强大的视觉语言模型,结合了原生分辨率ViT编码器、MLP投影仪和专为复杂推理任务优化的MiMo-7B语言模型。通过多阶段预训练和后训练,在多个视觉语言任务中取得了优异的成绩。
mideind
IceBERT-PoS是一个专门用于冰岛语词性标注的预训练模型,基于IceBERT架构构建。该模型能够对冰岛语句子中的每个单词进行词性标注,并输出详细的语法属性信息,支持多种输出格式,包括可读性强的结构化元组格式和与MIM-GOLD评估标准兼容的IFD格式。
MiMo是一系列专为推理任务从头训练的7B参数模型,通过优化预训练和后训练策略,在数学和代码推理任务上表现出色。
MiMo-7B 是小米推出的专为推理任务设计的语言模型系列,包括基础模型、SFT模型和RL模型,在数学和代码推理任务上表现优异。
MiMo-7B-RL是基于MiMo-7B-SFT模型训练的强化学习模型,在数学与代码推理任务上表现出色,性能媲美OpenAI o1-mini。
小米推出的7B参数规模推理专用语言模型系列,通过优化预训练和后训练策略显著提升数学与代码推理能力
MiMo-7B-RL是基于MiMo-7B-SFT模型训练的强化学习模型,在数学与代码推理任务上达到与OpenAI o1-mini比肩的性能。
birder-project
基于掩码图像建模(MIM)预训练的ViT reg4图像编码器,适用于通用特征提取或下游视觉任务
dongfangxu
该模型基于BiomedBERT,用于对MIMIC-III临床记录进行句子分割,预测BIO标注。
采用绝对窗口位置嵌入策略的Hiera图像编码器,通过掩码图像建模(MIM)预训练,可作为通用特征提取器或下游任务的骨干网络。
mims-harvard
TxAgent-T1是基于Llama3.1-8B-Instruct微调的医疗智能体模型,专注于个性化治疗建议和药物推理
一个使用掩码图像建模(MIM)预训练的ViT-L16图像编码器,适用于通用特征提取或下游任务
一个提供图像获取和处理功能的MCP服务器,支持从URL、本地路径和numpy数组加载图像,并返回base64编码和MIME类型。
一个提供图像获取和处理功能的MCP服务器,支持从URL、本地路径和numpy数组加载图像,并返回base64编码的字符串和MIME类型。
MCP文件系统服务器,为工作目录中的每个文件创建资源并提供变更通知,支持.gitignore规则和MIME类型检测
该项目旨在评估基于Azure PostgreSQL的MCP服务器在临床数据分析中的性能与开发效率,通过与直接SQL查询对比,验证MCP抽象层能否在保持或提升运行效率的同时降低开发复杂度。
该项目是关于自动化医疗编码的研究,提供了在MIMIC-III和MIMIC-IV数据集上训练和评估医疗编码模型的代码,包括多种模型的实现和新数据集的划分。