英伟达回应谷歌AI进展,强调自身在AI基础设施领域的核心地位,称其是唯一能运行所有主流AI模型、覆盖云端到边缘计算的全平台,领先行业约一代。黄仁勋指出,英伟达通用GPU在性能、灵活性和可替代性上优于专用AI芯片。
IBM发布Granite4.0Nano系列AI模型,参数规模350万至15亿,强调高效与可及性。模型可在笔记本电脑或浏览器本地运行,无需依赖云计算,支持开发者在普通硬件或边缘设备构建应用,突破行业依赖云服务的常规趋势。
Liquid AI推出LFM2-8B-A1B模型,采用稀疏激活MoE架构,总参数量8.3B但每token仅激活1.5B参数。该设计在保持高表示能力的同时显著降低计算负载,突破“小规模MoE低效”认知,专为资源受限的边缘设备优化,支持实时交互场景。
LiquidAI推出轻量级AI模型系列Liquid Nanos,专为树莓派等边缘计算设备设计。该系列提供350M和1.2B两种参数版本,支持翻译、信息抽取、RAG、工具调用和数学推理五大应用场景,满足低功耗高性能需求,为开发者提供多样化边缘AI解决方案。
提供AI边缘处理器,专为实现高性能深度学习应用而设计。
RF-DETR 是由 Roboflow 开发的实时目标检测模型。
世界上最快的边缘部署音频语言模型
高效开源的视觉语言模型
Openai
$7.7
输入tokens/百万
$30.8
输出tokens/百万
200
上下文长度
Anthropic
$21
$105
Tencent
$1
$4
32
$0.4
-
128
Alibaba
$0.75
256
$1.75
$14
400
Chatglm
Google
Baidu
$3
4
$0.5
$0.7
$2.8
1k
Deepseek
8
$2
$0.8
$3.2
mradermacher
这是LiquidAI/LFM2-350M-ENJP-MT模型的静态量化版本,支持英语和日语的双向翻译任务,专为边缘计算场景优化,提供多种量化选项以适应不同硬件需求。
Nihal2000
这是 sentence-transformers/all-MiniLM-L6-v2 模型的 TensorFlow Lite 转换版本,专门为边缘设备优化。该模型可将文本映射到384维向量空间,支持语义搜索、文本相似度计算等任务。提供Float32和INT8量化两个版本,量化版本体积缩小约4倍,在CPU上运行速度显著提升。
tencent
混元是腾讯开源的高效大语言模型系列,专为在各种计算环境中进行多用途部署而设计。从边缘设备到高并发生产系统,这些模型借助先进的量化支持和超长上下文能力,都能实现最佳性能。
unsloth
LFM2-350M是由Liquid AI开发的第二代混合模型,专为边缘AI和设备端部署设计。该模型在质量、速度和内存效率方面树立了新标准,具有3.5亿参数,支持多种语言,适用于边缘计算场景。
boltuix
NeuroBERT 是一款基于 BERT 的轻量级自然语言处理模型,专为资源受限设备优化,适用于边缘计算和物联网场景。
Mungert
采用IQ-DynamicGate技术的超低位量化(1-2比特)模型,适用于内存受限设备和边缘计算场景
onnx-community
Moonshine Tiny 是一个轻量级的自动语音识别(ASR)模型,适用于嵌入式设备和边缘计算场景。
zai-org
GLM-Edge-V-2B 是一个支持图像文本到文本转换的视觉语言模型,专为边缘计算场景设计,具有50亿参数规模,能够处理图像描述等任务,适用于自然语言处理和计算机视觉的融合应用。
cssupport
基于MobileBERT的轻量级模型,用于检测输入字符串中的SQL注入攻击,适用于边缘计算场景。
OpenCV MCP Server是一个基于Python的计算机视觉服务,通过Model Context Protocol (MCP)提供OpenCV的图像和视频处理能力。它为AI助手和语言模型提供从基础图像处理到高级对象检测的全套计算机视觉工具,包括图像处理、边缘检测、人脸识别、视频分析和实时对象跟踪等功能。
Fastly MCP是一个通过模型上下文协议(MCP)将Fastly API功能集成到AI助手的工具,允许用户通过自然语言指令管理CDN服务、缓存、安全配置等,同时保障API密钥安全。
工业物联网与边缘计算的MCP服务器,通过HTTP端点提供11种工具,实现AI驱动的工业自动化、预测性维护和智能工厂操作,支持MQTT、Modbus等多种协议。
Fastly MCP 是一个通过模型上下文协议(MCP)将Fastly API功能集成到AI助手的工具,允许用户通过AI管理CDN服务、缓存、安全配置等,同时保护API密钥安全。
Supabase MCP服务器是一个桥接MCP客户端与Supabase服务的中间件,提供数据库操作、存储管理、边缘函数调用等综合功能。
FastlyMCP是一个通过模型上下文协议(MCP)将Fastly API功能集成到AI助手的工具,实现安全高效的CDN管理自动化。
通过EdgeOne Pages Functions获取用户地理位置并与大模型集成
一个支持边缘计算的分布式联邦AI服务运行时系统,提供标准化协议和安全架构实现跨组织AI系统集成
这是一个基于Cloudflare Workers和Remix 3的MCP协议演示项目,展示了如何在AI聊天界面中嵌入交互式计算器小组件。项目包含完整的MCP服务器实现、状态管理和小部件通信系统,特别设计了TRON风格的隐藏彩蛋。
基于EdgeOne Pages Functions技术的智能聊天应用,实现完整的MCP协议工作流,包含交互式聊天界面、高性能边缘函数和OpenAI兼容API。
该项目演示了如何通过EdgeOne Pages Functions获取用户地理位置信息,并利用MCP协议与大型语言模型集成。
JetsonMCP是一个通过SSH连接管理NVIDIA Jetson Nano边缘计算设备的MCP服务器,提供AI工作负载优化、硬件配置和系统管理功能,支持自然语言指令转换为专业操作命令。
JetsonMCP是一个MCP服务器,通过SSH连接帮助AI助手管理和优化NVIDIA Jetson Nano边缘计算系统,提供AI工作负载部署、硬件优化和系统管理功能。
这是一个基于Server-Sent Events (SSE)的Model Context Protocol (MCP)服务器实现示例,专为Netlify Edge Functions部署设计,提供实时通信功能。
基于Cloudflare Workers构建的MCP协议图像生成服务