面壁智能发布首款AI端侧开发板“松果派”,基于NVIDIA Jetson模组,集成麦克风、摄像头等多模态接口,适配自研MiniCPM系列模型,旨在让开发者便捷构建智能硬件。
Peloton因AI转型未获市场认可,宣布裁员11%以削减开支。疫情初期的繁荣掩盖了其长期增长乏力,随着健身爱好者回归线下,公司面临严峻挑战。
苹果CEO库克表示,公司对AI带来的新产品和服务充满信心,正突破智能手机框架,重塑个人计算体验。AI战略将聚焦三大硬件领域,包括备受期待的AI智能眼镜,以推动社交与交互新形态。
阿里千问APP推出酒店“碰一碰”服务,住客用手机轻触感应贴纸即可唤醒APP,获取景点导览、餐饮推荐等本地化信息,并领取淘宝优惠券。该功能基于现有天猫精灵硬件,已在杭州、广州等地试点,预计春节前覆盖超万间客房。
现代硬件设计的CAD软件
确保AI可解释、可审计、安全的硬件解决方案
私有、无审查的AI家用硬件设备
构建最节能的人工智能硬件
Bytedance
$0.8
输入tokens/百万
$2
输出tokens/百万
128
上下文长度
$0.15
$1.5
256
Alibaba
-
32
Tencent
$1
$3
4
Google
$0.35
$0.7
131
Chatglm
Baidu
$10
DevQuasar
本项目提供了 Qwen/Qwen3-VL-32B-Thinking 的量化版本(Int4),致力于降低模型部署的硬件门槛,让先进的视觉语言模型知识为每个人所用。
bartowski
这是对TheDrummer的Magidonia-24B-v4.3大语言模型进行量化处理后的版本。通过使用llama.cpp的imatrix量化技术,生成了从BF16到IQ2_XS等多种精度的GGUF格式文件,旨在不同硬件条件下(尤其是资源受限环境)更高效地运行模型,同时尽可能保持模型性能。
本项目是TheDrummer的Cydonia-24B-v4.3模型的量化版本,使用llama.cpp进行量化处理,旨在提供不同量化类型的模型文件,以满足不同硬件和性能需求。它是一个24B参数的大语言模型,主要用于文本生成任务。
这是由Mistral AI开发的大型语言模型Mistral-Large-3-675B-Instruct-2512的GGUF量化版本。原始模型拥有6750亿参数,专为指令遵循任务设计。本项目使用llama.cpp工具,结合imatrix校准数据集,生成了从Q8_0到IQ1_S共20多种不同精度的量化模型文件,旨在平衡模型性能、推理速度与存储/内存占用,使其能在更广泛的硬件上运行。
这是微软Fara-7B模型的量化版本,使用llama.cpp的imatrix技术进行优化。该模型支持多种量化级别,从高精度的bf16到极低精度的IQ2_M,满足不同硬件配置和性能需求。
这是ArliAI的GLM-4.5-Air-Derestricted模型的GGUF量化版本,使用llama.cpp和imatrix技术进行优化量化处理,提供多种量化级别选择,适用于不同硬件配置和性能需求。
这是TheDrummer的Snowpiercer-15B-v4模型的量化版本,使用llama.cpp和imatrix技术进行量化处理。该版本提供了从BF16到IQ2_S等多种量化级别,满足不同硬件条件和性能需求的用户。模型使用特定数据集进行校准优化,支持在线重打包功能以提升在ARM和AVX硬件上的性能。
这是对ai-sage的GigaChat3-10B-A1.8B模型进行的量化处理版本,采用llama.cpp的imatrix量化技术,可在不同硬件条件下更高效地运行。模型支持俄语和英语,主要用于文本生成任务。
这是allenai的Olmo-3-32B-Think模型的GGUF量化版本,通过llama.cpp工具进行多种量化处理,旨在提升模型在特定环境下的性能和效率。提供了从Q2到Q8的多种量化选项,满足不同硬件配置和性能需求。
ubergarm
这是ai-sage/GigaChat3-10B-A1.8B-bf16模型的GGUF量化版本,提供了多种量化选项,从高精度的Q8_0到极度压缩的smol-IQ1_KT,满足不同硬件条件下的部署需求。该模型支持32K上下文长度,采用MLA架构,专为对话场景优化。
mradermacher
这是wexyyyyyy/Ru-Gemma3-1B模型的静态量化版本,支持俄语和英语,专为对话和文本生成任务设计。该模型提供了多种量化版本,适用于不同的硬件配置和性能需求。
MaziyarPanahi
本项目提供了Qwen3-4B-Thinking-2507模型的GGUF格式文件,这是一个具有思维链推理能力的4B参数大语言模型,支持多种量化版本,便于在各种硬件上部署运行。
mratsim
GLM-4.5-Iceblink-v2-106B-A12B-FP8是基于GLM-4.5-Iceblink-v2-106B-A12B模型,采用最先进的混合专家量化方法进行FP8量化的版本。该模型专门针对支持硬件FP8的Ada、Hopper或Blackwell系列GPU优化,在保持高质量输出的同时显著提升推理效率。
Diver-GroupRank-7B是一个专门用于段落排序、文本排序、推理和信息检索的7B参数模型。本版本提供了多种量化格式,适用于不同的硬件和性能需求。
基于AQ-MedAI/Diver-GroupRank-7B模型的静态量化版本,专门用于段落排序、文本排序、推理和信息检索等任务。提供了多种量化级别以适应不同的硬件需求。
VibeThinker-1.5B-GGUF 是 WeiboAI/VibeThinker-1.5B 模型的 GGUF 量化版本,由 MaziyarPanahi 进行量化处理。该模型是一个 1.5B 参数的文本生成模型,支持多种量化级别(2位到8位),便于在各种硬件上高效运行。
这是基于p-e-w发布的Llama-3.1-8B-Instruct-heretic模型的量化版本,使用llama.cpp b7049版本进行imatrix量化。提供了多种量化选项以适应不同硬件和性能需求,支持在LM Studio或llama.cpp中运行。
这是p-e-w/gpt-oss-20b-heretic模型的量化版本,使用llama.cpp的imatrix技术进行量化处理。该模型是一个200亿参数的大语言模型,提供了多种量化选项,从高质量到低质量不等,文件大小从41.86GB到11.52GB,适用于不同硬件条件。
这是adith-ds/emotion-classifier-v2模型的静态量化版本,提供了多种GGUF量化格式,适用于情感分类任务。模型经过优化,可在不同硬件环境下高效运行。
本项目提供了Qwen-4B-Instruct-2507-Self-correct模型的静态量化版本,支持文本生成、偏差缓解、自我修正等任务。该模型基于Qwen-4B架构,经过指令微调和自我修正训练,提供多种量化版本以适应不同硬件需求。
Awesome MCP Servers 是一个全面的Model Context Protocol (MCP)服务器集合,涵盖了7158个MCP服务器,分为33个类别,包括AI集成、艺术媒体、浏览器自动化、云服务、数据库、开发者工具、文件系统、金融、游戏、硬件、医疗、基础设施、知识管理、位置地图、市场营销、监控、多媒体处理、操作系统、项目管理、科学研究、安全、社交媒体、旅行交通、实用工具和版本控制等。
mcp2tcp是一个连接物理硬件与AI大模型的桥梁项目,通过MCP协议实现自然语言控制硬件设备。
一个专业的串口通信MCP服务器,为AI助手提供全面的串口通信能力,支持嵌入式系统、物联网设备和硬件调试,具有跨平台支持和多种数据格式处理功能。
基于mcp-server的项目,支持AI大模型高效调用spinq的量子计算硬件资源,提供Windows和macOS的一键安装脚本,自动检测Python环境并安装依赖。
一个用于与计算机外设无缝集成的MCP服务器,提供统一的API来控制、监控和管理硬件设备,包括摄像头、打印机、音频设备和屏幕。
mcp2mqtt是一个连接物联网设备与AI大模型的桥梁项目,通过MCP和MQTT协议实现自然语言控制硬件设备。
RegenNexus UAP是一个通用适配器协议,用于连接设备、机器人、应用和AI代理,提供低延迟、高安全性的通信,支持多种硬件和MCP集成。
一个为FIRST机器人竞赛队伍设计的工具,可同时搜索WPILib、REV、CTRE等多个官方文档库,通过自然语言提问快速获取编程和硬件配置答案,支持VS Code集成和AI助手优化。
这是一个为Commodore 64 Ultimate(官方现代C64电脑)设计的MCP服务器,通过REST API让AI助手(如Claude、ChatGPT)能够远程控制C64硬件,支持程序加载、内存操作、磁盘管理等功能。
一个轻量级服务器,通过简单API暴露Mac系统信息,帮助AI助手获取实时硬件和系统数据,主要用于Mac用户的AI和深度学习实验。
MCP2Serial是一个连接物理设备与AI大模型的桥梁项目,通过自然语言控制硬件设备,实现物联网智能化控制。
ESP32 CYD开发板的MCP服务器实现,提供通过WebSocket协议远程控制显示屏、触摸、GPIO、传感器等硬件功能的完整解决方案。
一个专业的嵌入式调试MCP服务器,提供AI助手全面的嵌入式系统调试能力,支持ARM Cortex-M和RISC-V微控制器,与真实硬件集成。
FortunaMCP是一个基于硬件熵的高性能随机数生成服务器,通过多种统计分布模型为AI应用提供真实不可预测的随机值,适用于模拟仿真和游戏场景。
Vibe Composer MCP 是一个基于 MCP 服务器的音乐创作工具,允许用户通过自然语言与 LLM 对话来创作多轨音乐,并支持输出到软件或硬件合成器。
Opentrons MCP Server是一个为Opentrons机器人自动化提供API文档和直接控制功能的工具,支持Flex和OT-2型号机器人,包含协议管理、运行控制、硬件操作等功能。
IntelliGlow是一个基于MCP协议的智能照明系统,通过AI助手控制真实智能灯泡,支持语音命令、AI推理和直接硬件控制,实现自然语言交互和智能灯光管理。
JetsonMCP是一个通过SSH连接管理NVIDIA Jetson Nano边缘计算设备的MCP服务器,提供AI工作负载优化、硬件配置和系统管理功能,支持自然语言指令转换为专业操作命令。
env-mcp 是一个跨平台的系统信息获取工具包,支持通过 MCP 协议获取详细的硬件、软件和网络环境信息。
JetsonMCP是一个MCP服务器,通过SSH连接帮助AI助手管理和优化NVIDIA Jetson Nano边缘计算系统,提供AI工作负载部署、硬件优化和系统管理功能。