Cohere公司于2026年3月26日推出开源语音识别模型Cohere Transcribe。该模型拥有20亿参数,专为边缘设备设计,旨在解决语音模型因体积过大导致的延迟问题。通过Apache 2.0协议开源,Cohere希望借助开发者社区完善生态并实现商业化。模型支持14种语言,性能超越主流。
阿里通义千问团队推出Qwen3.5小型模型系列,包括0.8B、2B、4B、9B四款轻量级模型及对应基础版本。它们基于统一架构,具备原生多模态能力(支持图像-文本处理),结构改进且强化学习训练可扩展,能以更少计算资源实现更高智能水平。其中0.8B和2B模型极致小巧、推理极快,专为边缘设备优化。
思科在ISE展上推出多款AI协作硬件,将会议室等场景转化为可管理的边缘基础架构。新品包括专为复杂环境设计的Room Kit Pro G2等,具备边缘智能处理能力,旨在提升协作效率。
Liquid AI推出新一代小型基础模型LFM2.5,专为边缘设备和本地部署设计。该系列包括基础版和指令版,并扩展了日语、视觉语言及音频语言变种。模型基于LFM2混合架构,针对CPU和NPU优化,实现快速高效推理。开源权重已发布在Hugging Face平台。
快速准确的边缘设备自动语音识别模型
一个多图像视觉语言模型,具有训练、推理和评估方案,可从云端部署到边缘设备(如Jetson Orin和笔记本电脑)。
为边缘设备定制的小型语言模型
为边缘设备提供无代码人工智能
Openai
$0.4
Input tokens/M
-
Output tokens/M
128
Context Length
Chatglm
Deepseek
$2
$8
32
Alibaba
$0.3
Google
$140
$280
Baidu
Tencent
$1
$3
4
$0.7
$2.8
1k
8
$9
samwell
NV-Reason-CXR-3B GGUF是NVIDIA NV-Reason-CXR-3B视觉语言模型的量化版本,专为边缘设备部署优化。这是一个30亿参数的模型,专注于胸部X光分析,已转换为GGUF格式并进行量化处理,可在移动设备、桌面设备和嵌入式系统上高效运行。
unsloth
Qwen3-VL是通义系列中最强大的视觉语言模型,在文本理解与生成、视觉感知与推理、上下文长度、空间和视频动态理解以及智能体交互能力等方面全面升级。该模型提供密集架构和混合专家架构,支持从边缘设备到云端的灵活部署。
Qwen3-VL是阿里巴巴推出的新一代视觉语言模型,在文本理解、视觉感知、空间理解、长上下文处理和智能体交互等方面全面升级,支持从边缘设备到云端的灵活部署。
Qwen3-VL是通义系列中最强大的视觉语言模型,在文本理解与生成、视觉感知与推理、上下文长度、空间和视频动态理解以及智能体交互能力等方面都进行了全面升级。该模型提供密集架构和混合专家架构,支持从边缘设备到云端的灵活部署。
moxin-org
本项目对DeepSeek-V3-0324进行了llama.cpp混合精度量化,解决了模型在边缘设备上部署的难题,提升了模型的运行效率和资源利用率。
zenlm
Zen Nano 0.6B 是 Zen 模型家族中最小的模型,专为边缘部署进行了优化,能在边缘设备上高效运行,为相关应用提供有力支持。
Mungert
LFM2是由Liquid AI开发的新一代混合模型,专为边缘AI和设备端部署而设计,在质量、速度和内存效率方面树立了新标准。该模型采用创新的混合Liquid架构,具有乘法门和短卷积,支持多语言处理。
LiquidAI
LFM2是由Liquid AI开发的新一代混合模型,专为边缘AI和设备端部署设计。该模型在质量、速度和内存效率方面树立了新标准,特别适合在资源受限的环境中运行。
jamescallander
这是专为Rockchip RK3588开发板优化的代码生成模型,基于Qwen2.5-Coder-3B-Instruct转换而来,支持在边缘设备上进行本地化代码辅助和生成任务。
Nihal2000
这是 sentence-transformers/all-MiniLM-L6-v2 模型的 TensorFlow Lite 转换版本,专门为边缘设备优化。该模型可将文本映射到384维向量空间,支持语义搜索、文本相似度计算等任务。提供Float32和INT8量化两个版本,量化版本体积缩小约4倍,在CPU上运行速度显著提升。
tencent
混元是腾讯开源的高效大语言模型系列,专为在各种计算环境中进行多用途部署而设计。从边缘设备到高并发生产系统,这些模型借助先进的量化支持和超长上下文能力,都能实现最佳性能。
LFM2是由Liquid AI开发的新一代混合模型,专为边缘AI和设备端部署而设计,在质量、速度和内存效率方面树立了新标准。
LFM2是由Liquid AI开发的新一代混合模型,专为边缘AI和设备端部署设计,在质量、速度和内存效率方面树立了新标准。
LFM2 是由 Liquid AI 开发的新一代混合模型,专为边缘 AI 和设备端部署设计,在质量、速度和内存效率方面树立了新标准。
LFM2-350M是由Liquid AI开发的第二代混合模型,专为边缘AI和设备端部署设计。该模型在质量、速度和内存效率方面树立了新标准,具有3.5亿参数,支持多种语言,适用于边缘计算场景。
LFM2-700M 是由 Liquid AI 开发的新一代混合模型,专为边缘 AI 和设备端部署设计,在质量、速度和内存效率方面树立了新标准。
LFM2-350M 是由 Liquid AI 开发的混合模型,专为边缘 AI 和设备端部署设计,具有高效训练和推理能力。
kshitijthakkar
LoggenixMoE133M是一款轻量级混合专家(MoE)因果语言模型,总参数量133M,活跃参数量80M。该模型在包含根因分析、代码生成和推理任务的自定义数据集上从头训练,支持智能体能力特殊标记,适合边缘设备部署和专业AI智能体构建。
MCP Bridge是一个轻量级、与LLM无关的RESTful代理,用于连接多个模型上下文协议(MCP)服务器,并通过统一的REST API暴露其功能。它解决了边缘设备、移动设备和Web浏览器等平台无法高效运行MCP服务器的问题,提供了可选的基于风险的执行级别,包括标准执行、确认工作流和Docker隔离等安全控制。
JetsonMCP是一个通过SSH连接管理NVIDIA Jetson Nano边缘计算设备的MCP服务器,提供AI工作负载优化、硬件配置和系统管理功能,支持自然语言指令转换为专业操作命令。