Liquid AI推出LFM2.5-1.2B-Thinking推理模型,拥有12亿参数,专为复杂逻辑推理和数学任务设计。该模型在端侧部署上实现突破,仅占用约900MB内存,可在现代手机上完全离线运行,将两年前需数据中心支持的推理能力成功迁移至个人移动设备。
美国监管机构裁定马斯克旗下xAI公司违规,因其在田纳西州数据中心使用数十台甲烷燃气轮机供电,却未申请空气质量许可。xAI辩称这些设备属临时或移动电源,应豁免许可,但未被采纳。
在2026年CES展上,AMD推出多款AI PC芯片,推动AI应用从云端扩展至笔记本电脑和移动设备。新品包括面向轻薄笔记本和小型台式机的Ryzen AI400系列、Ryzen AI Max +处理器,以及Ryzen AI Pro400系列。同时,AMD还发布了首个AI开发平台AI Halo,旨在加速AI技术在个人计算设备上的普及。
三星在CES 2026宣布,计划到2026年将搭载谷歌Gemini AI功能的移动设备数量翻倍至8亿台。公司正推进“AX”人工智能转型项目,覆盖手机、平板、电视及家电等多条产品线,旨在加速AI技术整合。
Lora 是一个为移动设备优化的本地语言模型,支持 iOS 和 Android 平台。
On-device Sora 是一个基于扩散模型的移动设备端文本到视频生成项目。
Blaze 是一款强大的移动设备集成开发环境(IDE)和编译器,支持 Python 编程。
Llamao 是一款注重隐私的离线版 ChatGPT 替代品,可在移动设备上使用。
Openai
$0.4
Input tokens/M
-
Output tokens/M
128
Context Length
Chatglm
Alibaba
$0.3
32
Deepseek
$2
$8
Google
$140
$280
Tencent
$1
$3
4
8
Baidu
$9
$0.8
$3.2
samwell
NV-Reason-CXR-3B GGUF是NVIDIA NV-Reason-CXR-3B视觉语言模型的量化版本,专为边缘设备部署优化。这是一个30亿参数的模型,专注于胸部X光分析,已转换为GGUF格式并进行量化处理,可在移动设备、桌面设备和嵌入式系统上高效运行。
metascroy
这是一个基于Qwen3-4B模型进行微调的量化版本,使用Unsloth框架和Huggingface TRL库进行高效训练,训练速度提升2倍。模型采用int8-int4混合量化方案,支持在移动设备上运行。
GenMedLabs
XTTS v2 GGUF 是一款专为移动设备优化的内存高效文本转语音系统,采用C++推理引擎,实现超低内存使用和快速加载。
facebook
MobileLLM-Pro是Meta推出的10亿参数高效设备端语言模型,专为移动设备优化,支持128k上下文长度,提供高质量推理能力。该模型通过知识蒸馏技术训练,在多项基准测试中超越同规模模型,并支持近乎无损的4位量化。
PaddlePaddle
PaddleOCR团队开发的最新一代英文文本行识别模型,专为高效、准确的英文OCR识别而设计,在移动端设备上具有优异的性能表现。
NexaAI
OmniNeural是全球首个专门为神经处理单元(NPU)设计的全多模态模型,能够原生理解文本、图像和音频,可在PC、移动设备、汽车、物联网和机器人等多种设备上运行。
Mungert
Lucy是一款基于Qwen3-1.7B构建的轻量级网页搜索模型,专为移动设备优化,采用创新的量化方法提升关键层精度,支持网页搜索和浏览功能。
Lucy-128k是基于Qwen3-1.7B开发的专注于代理式网络搜索和轻量级浏览的模型,在移动设备上也能高效运行。
Menlo
Lucy是一款基于17亿参数Qwen3-1.7B构建的轻量级自主网络搜索模型,针对移动设备优化,可在CPU上高效运行。
Lucy是一款专注于自主网络搜索和轻量级浏览的17亿参数模型,优化后可在移动设备上高效运行。
Lucy是一款专注于智能网页搜索和轻量级浏览的17亿参数模型,基于Qwen3-1.7B构建,优化后可在移动设备上高效运行。
pytorch
SmolLM3-3B-INT8-INT4是基于HuggingFaceTB/SmolLM3-3B模型进行量化的版本,使用torchao实现了8位嵌入、8位动态激活和4位权重线性量化。该模型转换为ExecuTorch格式,通过优化在CPU后端实现高性能,特别适合移动设备部署。
riddhimanrana
fastvlm-0.5b-captions是基于FastVLM-0.5B第三阶段模型微调而来的高效视觉语言模型,专为移动设备上的结构化图像描述而设计。该模型采用LoRA微调、4位量化和MobileCLIP-S0视觉塔技术,显著降低了内存占用,可在iPhone等移动设备上实现实时推理。
PP-OCRv4_mobile_det 是由 PaddleOCR 团队开发的针对移动设备优化的高效文本检测模型,适合边缘设备部署。
MobileLLM-ParetoQ是一个专为移动设备优化的极低比特大语言模型量化框架,支持1位、1.58位、2位、3位和4位量化设置,在保持高性能的同时显著降低资源消耗。
litert-community
这是Qwen2.5-0.5B-Instruct模型的LiteRT优化版本,专门针对移动设备部署进行了优化。该模型提供了多种量化变体,支持在Android设备上通过LiteRT框架和MediaPipe LLM推理API进行高效部署。
kyutai
Helium-1是一个20亿参数的轻量级语言模型,专为边缘和移动设备设计,支持欧盟24种官方语言。
这是一个基于微软Phi-4-mini-instruct模型进行量化处理的轻量化版本,采用INT8嵌入和INT8动态激活加INT4权重线性量化方案,专门为移动设备部署优化。
qualcomm
YamNet是一个基于AudioSet数据集训练的音频事件分类模型,采用Mobilenet_v1深度可分离卷积架构,专为移动设备部署优化,能够准确识别和分类各种音频事件。
Vikhrmodels
基于Llama-3.2-1B-Instruct的指令模型,在俄语数据集GrandMaster-PRO-MAX上训练,效率是基础模型的5倍,适合低功耗或移动设备部署。
Mobile Next - MCP服务器是一个用于移动自动化的平台无关接口,支持iOS和Android设备的自动化操作,无需特定平台知识。
移动端自动化MCP服务,为Cursor AI提供Android/iOS设备控制能力,支持39个操作工具、智能验证、测试脚本生成等功能,无需AI密钥即可使用。
MCP移动服务器是一个AI驱动的移动开发工具集,为Claude Desktop等MCP客户端提供36个强大的Flutter、Android和iOS开发工具,包括智能设备管理、自动化构建和跨平台部署功能,显著提升移动开发效率。
MCP Bridge是一个轻量级、与LLM无关的RESTful代理,用于连接多个模型上下文协议(MCP)服务器,并通过统一的REST API暴露其功能。它解决了边缘设备、移动设备和Web浏览器等平台无法高效运行MCP服务器的问题,提供了可选的基于风险的执行级别,包括标准执行、确认工作流和Docker隔离等安全控制。
一个通过AI控制移动设备的MCP服务,提供设备管理、应用安装、日志获取等功能,支持Android和iOS平台。
一个提供移动设备自动化能力的MCP服务器,支持通过结构化UI数据与移动设备交互。
MCP Appium是一个将Appium集成到Model Context Protocol的服务,允许AI代理自动控制和测试移动设备,支持自动服务器启动、设备检测和灵活测试。