中兴通讯将在MWC2026发布TopFlow直播设备、AI宠物iMoochi等AI硬件,推动终端业务向全场景AI转型。TopFlow整合拍摄、网络传输与智能直播功能,配备实时网速监控屏,以软硬件一体化方案解决移动直播的带宽与画质问题。
Anthropic 为 AI 编程助手 Claude Code 推出“远程控制”模式,用户可通过手机对本地运行的 AI 智能体直接下达编程指令。该功能通过“安全同步层”连接桌面与移动设备,无需云端环境,用手机扫描终端二维码即可远程操作,旨在打破办公物理限制,提升开发灵活性。
Claude Code新增远程控制功能,允许开发者通过手机或平板无缝接管电脑终端上的编码任务,实现随时随地编程。用户只需在终端输入指令即可生成专属链接和二维码,扫码后即可在移动设备上继续操作,确保上下文零丢失。
SK海力士预测,受AI需求推动,内存价格将持续上涨。市场已回归理性,客户减少非理性囤货,供需趋于平衡。尽管PC和移动设备需求可能放缓,但AI相关需求将支撑内存市场增长。
Lora 是一个为移动设备优化的本地语言模型,支持 iOS 和 Android 平台。
On-device Sora 是一个基于扩散模型的移动设备端文本到视频生成项目。
Blaze 是一款强大的移动设备集成开发环境(IDE)和编译器,支持 Python 编程。
Llamao 是一款注重隐私的离线版 ChatGPT 替代品,可在移动设备上使用。
Openai
$0.4
Input tokens/M
-
Output tokens/M
128
Context Length
Chatglm
Alibaba
$0.3
32
Deepseek
$2
$8
Google
$140
$280
Tencent
$1
$3
4
8
Baidu
$9
$0.8
$3.2
samwell
NV-Reason-CXR-3B GGUF是NVIDIA NV-Reason-CXR-3B视觉语言模型的量化版本,专为边缘设备部署优化。这是一个30亿参数的模型,专注于胸部X光分析,已转换为GGUF格式并进行量化处理,可在移动设备、桌面设备和嵌入式系统上高效运行。
metascroy
这是一个基于Qwen3-4B模型进行微调的量化版本,使用Unsloth框架和Huggingface TRL库进行高效训练,训练速度提升2倍。模型采用int8-int4混合量化方案,支持在移动设备上运行。
GenMedLabs
XTTS v2 GGUF 是一款专为移动设备优化的内存高效文本转语音系统,采用C++推理引擎,实现超低内存使用和快速加载。
facebook
MobileLLM-Pro是Meta推出的10亿参数高效设备端语言模型,专为移动设备优化,支持128k上下文长度,提供高质量推理能力。该模型通过知识蒸馏技术训练,在多项基准测试中超越同规模模型,并支持近乎无损的4位量化。
PaddlePaddle
PaddleOCR团队开发的最新一代英文文本行识别模型,专为高效、准确的英文OCR识别而设计,在移动端设备上具有优异的性能表现。
NexaAI
OmniNeural是全球首个专门为神经处理单元(NPU)设计的全多模态模型,能够原生理解文本、图像和音频,可在PC、移动设备、汽车、物联网和机器人等多种设备上运行。
Mungert
Lucy是一款基于Qwen3-1.7B构建的轻量级网页搜索模型,专为移动设备优化,采用创新的量化方法提升关键层精度,支持网页搜索和浏览功能。
Lucy-128k是基于Qwen3-1.7B开发的专注于代理式网络搜索和轻量级浏览的模型,在移动设备上也能高效运行。
Menlo
Lucy是一款基于17亿参数Qwen3-1.7B构建的轻量级自主网络搜索模型,针对移动设备优化,可在CPU上高效运行。
Lucy是一款专注于自主网络搜索和轻量级浏览的17亿参数模型,优化后可在移动设备上高效运行。
Lucy是一款专注于智能网页搜索和轻量级浏览的17亿参数模型,基于Qwen3-1.7B构建,优化后可在移动设备上高效运行。
pytorch
SmolLM3-3B-INT8-INT4是基于HuggingFaceTB/SmolLM3-3B模型进行量化的版本,使用torchao实现了8位嵌入、8位动态激活和4位权重线性量化。该模型转换为ExecuTorch格式,通过优化在CPU后端实现高性能,特别适合移动设备部署。
riddhimanrana
fastvlm-0.5b-captions是基于FastVLM-0.5B第三阶段模型微调而来的高效视觉语言模型,专为移动设备上的结构化图像描述而设计。该模型采用LoRA微调、4位量化和MobileCLIP-S0视觉塔技术,显著降低了内存占用,可在iPhone等移动设备上实现实时推理。
PP-OCRv4_mobile_det 是由 PaddleOCR 团队开发的针对移动设备优化的高效文本检测模型,适合边缘设备部署。
MobileLLM-ParetoQ是一个专为移动设备优化的极低比特大语言模型量化框架,支持1位、1.58位、2位、3位和4位量化设置,在保持高性能的同时显著降低资源消耗。
litert-community
这是Qwen2.5-0.5B-Instruct模型的LiteRT优化版本,专门针对移动设备部署进行了优化。该模型提供了多种量化变体,支持在Android设备上通过LiteRT框架和MediaPipe LLM推理API进行高效部署。
kyutai
Helium-1是一个20亿参数的轻量级语言模型,专为边缘和移动设备设计,支持欧盟24种官方语言。
这是一个基于微软Phi-4-mini-instruct模型进行量化处理的轻量化版本,采用INT8嵌入和INT8动态激活加INT4权重线性量化方案,专门为移动设备部署优化。
qualcomm
YamNet是一个基于AudioSet数据集训练的音频事件分类模型,采用Mobilenet_v1深度可分离卷积架构,专为移动设备部署优化,能够准确识别和分类各种音频事件。
Vikhrmodels
基于Llama-3.2-1B-Instruct的指令模型,在俄语数据集GrandMaster-PRO-MAX上训练,效率是基础模型的5倍,适合低功耗或移动设备部署。
Mobile Next - MCP服务器是一个用于移动自动化的平台无关接口,支持iOS和Android设备的自动化操作,无需特定平台知识。
MCP移动服务器是一个AI驱动的移动开发工具集,为Claude Desktop等MCP客户端提供36个强大的Flutter、Android和iOS开发工具,包括智能设备管理、自动化构建和跨平台部署功能,显著提升移动开发效率。
移动端自动化MCP服务,为Cursor AI提供Android/iOS设备控制能力,支持39个操作工具、智能验证、测试脚本生成等功能,无需AI密钥即可使用。
MobAI MCP服务器是一个用于移动设备自动化的Model Context Protocol服务,通过HTTP API连接MobAI桌面应用,使AI编程助手能够控制Android和iOS设备、模拟器,实现UI自动化、Web操作和批量脚本执行。
MCP Bridge是一个轻量级、与LLM无关的RESTful代理,用于连接多个模型上下文协议(MCP)服务器,并通过统一的REST API暴露其功能。它解决了边缘设备、移动设备和Web浏览器等平台无法高效运行MCP服务器的问题,提供了可选的基于风险的执行级别,包括标准执行、确认工作流和Docker隔离等安全控制。
一个通过AI控制移动设备的MCP服务,提供设备管理、应用安装、日志获取等功能,支持Android和iOS平台。
一个提供移动设备自动化能力的MCP服务器,支持通过结构化UI数据与移动设备交互。
FridaC2MCP是一个概念验证项目,它将Frida动态插桩工具的功能通过HTTP流传输暴露为一个远程MCP服务器,旨在实现远程、自动化的移动应用安全测试。该项目设计运行于已获取root权限的Android设备上,允许客户端通过网络分析和操控运行中的应用程序。
MCP Appium是一个将Appium集成到Model Context Protocol的服务,允许AI代理自动控制和测试移动设备,支持自动服务器启动、设备检测和灵活测试。