Meta收购AI可穿戴设备公司Limitless,其智能吊坠支持语音交互、实时录音转录和语音搜索,旨在提升用户专注力和记忆力。Limitless团队将加入Meta开发下一代AI硬件,此前Meta已进行战略调整。
谷歌将于12月9日凌晨2点直播《The Android Show:XR Edition》,首次系统展示Android XR平台更新。直播聚焦眼镜、头显等设备,重点介绍软件底座升级,包括系统响应速度、多设备协同优化及开发者工具链更新,以降低硬件适配成本。同时,平台将深度集成Gemini大模型,提升XR体验。
小米集团总裁卢伟冰在抖音直播中首次公布未来十年AI战略:将重点投入“大模型与物理场景深度融合”,致力于将AI能力融入实体硬件与服务。他确认罗福莉已加入小米大模型团队,并透露过去四个季度AI投入环比增速超50%,成果超出董事会预期。
阶跃星辰发布首个开源GUI智能体“GELab-Zero”,包含即插即用推理基础设施和4B GUI Agent模型。其轻量级设计支持消费级硬件本地运行,实现低延迟响应并保护用户隐私,提供高效便捷的智能体体验。
现代硬件设计的CAD软件
确保AI可解释、可审计、安全的硬件解决方案
私有、无审查的AI家用硬件设备
构建最节能的人工智能硬件
Bytedance
$0.8
Input tokens/M
$2
Output tokens/M
128
Context Length
$0.15
$1.5
256
Alibaba
-
32
Tencent
$1
$3
4
Google
$0.35
$0.7
131
Chatglm
Baidu
$10
bartowski
这是微软Fara-7B模型的量化版本,使用llama.cpp的imatrix技术进行优化。该模型支持多种量化级别,从高精度的bf16到极低精度的IQ2_M,满足不同硬件配置和性能需求。
这是ArliAI的GLM-4.5-Air-Derestricted模型的GGUF量化版本,使用llama.cpp和imatrix技术进行优化量化处理,提供多种量化级别选择,适用于不同硬件配置和性能需求。
这是TheDrummer的Snowpiercer-15B-v4模型的量化版本,使用llama.cpp和imatrix技术进行量化处理。该版本提供了从BF16到IQ2_S等多种量化级别,满足不同硬件条件和性能需求的用户。模型使用特定数据集进行校准优化,支持在线重打包功能以提升在ARM和AVX硬件上的性能。
这是对ai-sage的GigaChat3-10B-A1.8B模型进行的量化处理版本,采用llama.cpp的imatrix量化技术,可在不同硬件条件下更高效地运行。模型支持俄语和英语,主要用于文本生成任务。
这是allenai的Olmo-3-32B-Think模型的GGUF量化版本,通过llama.cpp工具进行多种量化处理,旨在提升模型在特定环境下的性能和效率。提供了从Q2到Q8的多种量化选项,满足不同硬件配置和性能需求。
ubergarm
这是ai-sage/GigaChat3-10B-A1.8B-bf16模型的GGUF量化版本,提供了多种量化选项,从高精度的Q8_0到极度压缩的smol-IQ1_KT,满足不同硬件条件下的部署需求。该模型支持32K上下文长度,采用MLA架构,专为对话场景优化。
mradermacher
这是wexyyyyyy/Ru-Gemma3-1B模型的静态量化版本,支持俄语和英语,专为对话和文本生成任务设计。该模型提供了多种量化版本,适用于不同的硬件配置和性能需求。
MaziyarPanahi
本项目提供了Qwen3-4B-Thinking-2507模型的GGUF格式文件,这是一个具有思维链推理能力的4B参数大语言模型,支持多种量化版本,便于在各种硬件上部署运行。
mratsim
GLM-4.5-Iceblink-v2-106B-A12B-FP8是基于GLM-4.5-Iceblink-v2-106B-A12B模型,采用最先进的混合专家量化方法进行FP8量化的版本。该模型专门针对支持硬件FP8的Ada、Hopper或Blackwell系列GPU优化,在保持高质量输出的同时显著提升推理效率。
Diver-GroupRank-7B是一个专门用于段落排序、文本排序、推理和信息检索的7B参数模型。本版本提供了多种量化格式,适用于不同的硬件和性能需求。
基于AQ-MedAI/Diver-GroupRank-7B模型的静态量化版本,专门用于段落排序、文本排序、推理和信息检索等任务。提供了多种量化级别以适应不同的硬件需求。
VibeThinker-1.5B-GGUF 是 WeiboAI/VibeThinker-1.5B 模型的 GGUF 量化版本,由 MaziyarPanahi 进行量化处理。该模型是一个 1.5B 参数的文本生成模型,支持多种量化级别(2位到8位),便于在各种硬件上高效运行。
这是基于p-e-w发布的Llama-3.1-8B-Instruct-heretic模型的量化版本,使用llama.cpp b7049版本进行imatrix量化。提供了多种量化选项以适应不同硬件和性能需求,支持在LM Studio或llama.cpp中运行。
这是p-e-w/gpt-oss-20b-heretic模型的量化版本,使用llama.cpp的imatrix技术进行量化处理。该模型是一个200亿参数的大语言模型,提供了多种量化选项,从高质量到低质量不等,文件大小从41.86GB到11.52GB,适用于不同硬件条件。
这是adith-ds/emotion-classifier-v2模型的静态量化版本,提供了多种GGUF量化格式,适用于情感分类任务。模型经过优化,可在不同硬件环境下高效运行。
本项目提供了Qwen-4B-Instruct-2507-Self-correct模型的静态量化版本,支持文本生成、偏差缓解、自我修正等任务。该模型基于Qwen-4B架构,经过指令微调和自我修正训练,提供多种量化版本以适应不同硬件需求。
这是 Manoghn/voicecraft-mistral-7b 模型的静态量化GGUF版本,基于Mistral-7B架构,专门用于内容生成和文本生成任务。该版本提供了多种量化级别,从2.8GB到14.6GB不等,用户可以根据硬件条件和性能需求选择合适的版本。
abr-ai
这是一个由Applied Brain Research(ABR)开发的基于状态空间模型(SSM)的英文自动语音识别模型,拥有约1900万参数,能够高效准确地将英文语音转录为文本。该模型在多个基准数据集上表现出色,平均单词错误率仅为10.61%,支持实时语音识别并可在低成本硬件上运行。
ZygAI
ZygAI 是一款专为立陶宛语和英语任务设计的快速本地大语言模型,处于测试阶段。它作为轻量级的双语助手,能够在本地硬件上实时运行,为用户提供高效、准确的双语服务。
这是Precog-123B-v1模型的llama.cpp量化版本,提供了多种量化类型以满足不同硬件配置和使用场景的需求。该模型是一个拥有1230亿参数的大型语言模型,经过优化后可在各种硬件上高效运行。
Awesome MCP Servers 是一个全面的Model Context Protocol (MCP)服务器集合,涵盖了7158个MCP服务器,分为33个类别,包括AI集成、艺术媒体、浏览器自动化、云服务、数据库、开发者工具、文件系统、金融、游戏、硬件、医疗、基础设施、知识管理、位置地图、市场营销、监控、多媒体处理、操作系统、项目管理、科学研究、安全、社交媒体、旅行交通、实用工具和版本控制等。
基于mcp-server的项目,支持AI大模型高效调用spinq的量子计算硬件资源,提供Windows和macOS的一键安装脚本,自动检测Python环境并安装依赖。
mcp2tcp是一个连接物理硬件与AI大模型的桥梁项目,通过MCP协议实现自然语言控制硬件设备。
一个专业的串口通信MCP服务器,为AI助手提供全面的串口通信能力,支持嵌入式系统、物联网设备和硬件调试,具有跨平台支持和多种数据格式处理功能。
一个用于与计算机外设无缝集成的MCP服务器,提供统一的API来控制、监控和管理硬件设备,包括摄像头、打印机、音频设备和屏幕。
mcp2mqtt是一个连接物联网设备与AI大模型的桥梁项目,通过MCP和MQTT协议实现自然语言控制硬件设备。
MCP2Serial是一个连接物理设备与AI大模型的桥梁项目,通过自然语言控制硬件设备,实现物联网智能化控制。
一个轻量级服务器,通过简单API暴露Mac系统信息,帮助AI助手获取实时硬件和系统数据,主要用于Mac用户的AI和深度学习实验。
ESP32 CYD开发板的MCP服务器实现,提供通过WebSocket协议远程控制显示屏、触摸、GPIO、传感器等硬件功能的完整解决方案。
FortunaMCP是一个基于硬件熵的高性能随机数生成服务器,通过多种统计分布模型为AI应用提供真实不可预测的随机值,适用于模拟仿真和游戏场景。
一个专业的嵌入式调试MCP服务器,提供AI助手全面的嵌入式系统调试能力,支持ARM Cortex-M和RISC-V微控制器,与真实硬件集成。
IntelliGlow是一个基于MCP协议的智能照明系统,通过AI助手控制真实智能灯泡,支持语音命令、AI推理和直接硬件控制,实现自然语言交互和智能灯光管理。
Opentrons MCP Server是一个为Opentrons机器人自动化提供API文档和直接控制功能的工具,支持Flex和OT-2型号机器人,包含协议管理、运行控制、硬件操作等功能。
JetsonMCP是一个通过SSH连接管理NVIDIA Jetson Nano边缘计算设备的MCP服务器,提供AI工作负载优化、硬件配置和系统管理功能,支持自然语言指令转换为专业操作命令。
env-mcp 是一个跨平台的系统信息获取工具包,支持通过 MCP 协议获取详细的硬件、软件和网络环境信息。
YDB是一个开源的分布式SQL数据库,结合了高可用性、可扩展性、严格一致性和ACID事务支持。它支持多租户和无服务器架构,适用于大规模OLTP工作负载,并能自动处理硬件故障恢复。
KognitiveKompanion是一个现代多功能的AI交互界面,支持KDE等多种桌面环境,集成OpenAI、Ollama及AMD Ryzen AI硬件加速等多种后端,提供高级UI、上下文功能和对话管理。
JetsonMCP是一个MCP服务器,通过SSH连接帮助AI助手管理和优化NVIDIA Jetson Nano边缘计算系统,提供AI工作负载部署、硬件优化和系统管理功能。
AnyPixel.js是一个开源软硬件库,用于创建大型、非传统、交互式显示装置。它提供完整的硬件设计、固件、后端和前端框架,支持开发者构建基于网页的交互式像素显示系统。
一个基于FastMCP和vgamepad的Xbox控制器模拟服务器,提供按钮、摇杆和扳机控制功能,支持硬件和模拟两种模式。