小米集团总裁卢伟冰在抖音直播中首次公布未来十年AI战略:将重点投入“大模型与物理场景深度融合”,致力于将AI能力融入实体硬件与服务。他确认罗福莉已加入小米大模型团队,并透露过去四个季度AI投入环比增速超50%,成果超出董事会预期。
英伟达CEO黄仁勋在内部会议上强调AI应用,要求员工全面使用AI工具,以巩固公司在AI硬件领域的领导地位并推动内部革新。在宣布创纪录的570亿美元季度营收后,他明确表示要将AI技术拓展至所有可自动化领域。
11月27日,搭载阿里千问的夸克AI眼镜S1发布,首次将AI助手从屏幕带入物理世界。用户可随时唤起千问,结合实时音视频数据,体验超越手机APP的交互能力。硬件上配备双旗舰芯片确保快速响应,采用双光机双目显示方案,亮度达4000nits,户外强光下信息依然清晰可见。
OpenAI联合前苹果设计师Jony Ive推出首款AI硬件原型:信用卡大小、无屏幕设计,内置麦克风和摄像头可实时感知环境,通过本地AI处理信息。首批原型已定型,预计两年内量产。
确保AI可解释、可审计、安全的硬件解决方案
私有、无审查的AI家用硬件设备
Xai
$1.4
Input tokens/M
$3.5
Output tokens/M
2k
Context Length
Anthropic
$105
$525
200
Google
$0.7
$2.8
1k
$7
$35
$2.1
$17.5
$21
Alibaba
-
$6
$24
256
Baidu
128
Bytedance
$1.2
$3.6
4
$2
$3.9
$15.2
64
bartowski
这是对ai-sage的GigaChat3-10B-A1.8B模型进行的量化处理版本,采用llama.cpp的imatrix量化技术,可在不同硬件条件下更高效地运行。模型支持俄语和英语,主要用于文本生成任务。
ubergarm
这是ai-sage/GigaChat3-10B-A1.8B-bf16模型的GGUF量化版本,提供了多种量化选项,从高精度的Q8_0到极度压缩的smol-IQ1_KT,满足不同硬件条件下的部署需求。该模型支持32K上下文长度,采用MLA架构,专为对话场景优化。
amd
Llama-3.1-8B-onnx-ryzenai-npu是由AMD基于Meta的Llama-3.1-8B模型开发的优化版本,专门针对AMD Ryzen AI NPU进行优化部署。该模型通过Quark量化、OGA模型构建器和NPU专用后处理技术,在保持高质量文本生成能力的同时,显著提升了在AMD硬件上的推理效率。
mradermacher
这是 liushiliushi/ConfTuner-Ministral 模型的静态量化版本,适用于文本生成和置信度估计任务。该模型基于 Mistral 架构,经过微调以提供可信赖的AI输出,支持多种量化级别以满足不同硬件需求。
这是基于mookiezii/Discord-Hermes-3-8B模型进行量化处理后的版本,提供了多种量化格式的GGUF模型文件,适用于不同硬件环境和性能需求的对话AI应用场景。
DevQuasar
这是慧慧Qwen3-4B思维模型的量化版本,基于Qwen2-4B架构构建,致力于通过量化技术让AI知识更易于获取和使用,降低硬件门槛。
lmstudio-community
GLM 4.5 Air是由Zai-Org开发的高效文本生成模型,经过bartowski使用llama.cpp进行GGUF量化处理,在保持性能的同时显著降低了硬件需求,适合在消费级硬件上运行。
这是AI21 Labs的Jamba-Mini-1.7模型的量化版本,使用llama.cpp的imatrix技术进行优化,为不同硬件配置提供了多种量化选择,支持高效推理。
这是慧慧AI基于Qwen3-14B模型的量化版本,旨在通过模型压缩技术让大语言模型更加轻量化,降低硬件需求,使知识获取更加普及和便捷。
EXAONE-3.5-7.8B-Instruct是由LG AI研发的78亿参数多语言指令调优大语言模型,支持英语和韩语。该版本经过llama.cpp的imatrix量化处理,提供多种量化级别,可在消费级硬件上高效运行。
Aion-RP-Llama-3.1-8B的Llamacpp imatrix量化版本,提供多种量化选项以适应不同硬件需求。
shuttleai
一款高效的文生图AI模型,仅需4步即可生成高质量图像,支持多种硬件优化格式。
featherless-ai-quants
这是一个基于Meta-Llama-3-8B-Instruct模型的GGUF量化版本,由Featherless AI团队优化。该模型经过多种量化处理,显著提升了性能并减少了资源需求,适合在各种硬件上部署使用。
这是Jina AI开发的reader-lm-1.5b模型的GGUF量化版本,使用llama.cpp b3715版本进行imatrix量化。该模型是一个15亿参数的多语言文本生成模型,支持多种量化格式,适用于不同硬件配置和性能需求。
Awesome MCP Servers 是一个全面的Model Context Protocol (MCP)服务器集合,涵盖了7158个MCP服务器,分为33个类别,包括AI集成、艺术媒体、浏览器自动化、云服务、数据库、开发者工具、文件系统、金融、游戏、硬件、医疗、基础设施、知识管理、位置地图、市场营销、监控、多媒体处理、操作系统、项目管理、科学研究、安全、社交媒体、旅行交通、实用工具和版本控制等。
基于mcp-server的项目,支持AI大模型高效调用spinq的量子计算硬件资源,提供Windows和macOS的一键安装脚本,自动检测Python环境并安装依赖。
mcp2tcp是一个连接物理硬件与AI大模型的桥梁项目,通过MCP协议实现自然语言控制硬件设备。
一个专业的串口通信MCP服务器,为AI助手提供全面的串口通信能力,支持嵌入式系统、物联网设备和硬件调试,具有跨平台支持和多种数据格式处理功能。
mcp2mqtt是一个连接物联网设备与AI大模型的桥梁项目,通过MCP和MQTT协议实现自然语言控制硬件设备。
MCP2Serial是一个连接物理设备与AI大模型的桥梁项目,通过自然语言控制硬件设备,实现物联网智能化控制。
一个轻量级服务器,通过简单API暴露Mac系统信息,帮助AI助手获取实时硬件和系统数据,主要用于Mac用户的AI和深度学习实验。
FortunaMCP是一个基于硬件熵的高性能随机数生成服务器,通过多种统计分布模型为AI应用提供真实不可预测的随机值,适用于模拟仿真和游戏场景。
一个专业的嵌入式调试MCP服务器,提供AI助手全面的嵌入式系统调试能力,支持ARM Cortex-M和RISC-V微控制器,与真实硬件集成。
IntelliGlow是一个基于MCP协议的智能照明系统,通过AI助手控制真实智能灯泡,支持语音命令、AI推理和直接硬件控制,实现自然语言交互和智能灯光管理。
JetsonMCP是一个通过SSH连接管理NVIDIA Jetson Nano边缘计算设备的MCP服务器,提供AI工作负载优化、硬件配置和系统管理功能,支持自然语言指令转换为专业操作命令。
KognitiveKompanion是一个现代多功能的AI交互界面,支持KDE等多种桌面环境,集成OpenAI、Ollama及AMD Ryzen AI硬件加速等多种后端,提供高级UI、上下文功能和对话管理。
JetsonMCP是一个MCP服务器,通过SSH连接帮助AI助手管理和优化NVIDIA Jetson Nano边缘计算系统,提供AI工作负载部署、硬件优化和系统管理功能。
KognitiveKompanion是一个现代多功能的AI交互界面,支持KDE等桌面环境,提供与OpenAI、Ollama及AMD Ryzen AI硬件加速的无缝集成。
IntelliGlow是一个基于MCP协议的AI智能照明控制系统,通过UDP网络直接控制真实智能灯泡,支持语音命令、AI推理和硬件控制,实现自然语言交互与智能家居的无缝对接。