阿里巴巴成立“千问C端事业群”,整合智能信息与智能互联业务,由副总裁吴嘉负责,发力消费端AI生态,涵盖千问APP、夸克、UC浏览器、书旗小说等应用及AI硬件。
OpenAI近期因产品命名陷入商标纠纷,其Sora应用中的“cameo”功能及未发布硬件“io”被指与现有商标过度相似。今年9月,OpenAI在Sora中推出“cameo”功能,允许用户创建数字分身并生成个性化视频,助推Sora登上iOS下载榜首。但“cameo”是名人定制视频平台Cameo的注册商标,引发行业关注。
智谱开源AI Agent模型AutoGLM,该模型具备“Phone Use”能力,可稳定完成外卖点单、机票预订等长达数十步的复杂手机操作。开源后,硬件厂商、手机厂商及开发者可在自有系统中复现能“看懂屏幕”、像真人一样完成点击、输入、滑动等操作的AI助手。目前AutoGLM已支持微信、淘宝、抖音等超过50款高频中文应用。
Meta收购AI可穿戴设备公司Limitless,其智能吊坠支持语音交互、实时录音转录和语音搜索,旨在提升用户专注力和记忆力。Limitless团队将加入Meta开发下一代AI硬件,此前Meta已进行战略调整。
现代硬件设计的CAD软件
确保AI可解释、可审计、安全的硬件解决方案
私有、无审查的AI家用硬件设备
构建最节能的人工智能硬件
Bytedance
$0.8
Input tokens/M
$2
Output tokens/M
128
Context Length
$0.15
$1.5
256
Alibaba
-
32
Tencent
$1
$3
4
Google
$0.35
$0.7
131
Chatglm
Baidu
$10
DevQuasar
本项目提供了 Qwen/Qwen3-VL-32B-Thinking 的量化版本(Int4),致力于降低模型部署的硬件门槛,让先进的视觉语言模型知识为每个人所用。
bartowski
这是对TheDrummer的Magidonia-24B-v4.3大语言模型进行量化处理后的版本。通过使用llama.cpp的imatrix量化技术,生成了从BF16到IQ2_XS等多种精度的GGUF格式文件,旨在不同硬件条件下(尤其是资源受限环境)更高效地运行模型,同时尽可能保持模型性能。
本项目是TheDrummer的Cydonia-24B-v4.3模型的量化版本,使用llama.cpp进行量化处理,旨在提供不同量化类型的模型文件,以满足不同硬件和性能需求。它是一个24B参数的大语言模型,主要用于文本生成任务。
这是由Mistral AI开发的大型语言模型Mistral-Large-3-675B-Instruct-2512的GGUF量化版本。原始模型拥有6750亿参数,专为指令遵循任务设计。本项目使用llama.cpp工具,结合imatrix校准数据集,生成了从Q8_0到IQ1_S共20多种不同精度的量化模型文件,旨在平衡模型性能、推理速度与存储/内存占用,使其能在更广泛的硬件上运行。
这是微软Fara-7B模型的量化版本,使用llama.cpp的imatrix技术进行优化。该模型支持多种量化级别,从高精度的bf16到极低精度的IQ2_M,满足不同硬件配置和性能需求。
这是ArliAI的GLM-4.5-Air-Derestricted模型的GGUF量化版本,使用llama.cpp和imatrix技术进行优化量化处理,提供多种量化级别选择,适用于不同硬件配置和性能需求。
这是TheDrummer的Snowpiercer-15B-v4模型的量化版本,使用llama.cpp和imatrix技术进行量化处理。该版本提供了从BF16到IQ2_S等多种量化级别,满足不同硬件条件和性能需求的用户。模型使用特定数据集进行校准优化,支持在线重打包功能以提升在ARM和AVX硬件上的性能。
这是对ai-sage的GigaChat3-10B-A1.8B模型进行的量化处理版本,采用llama.cpp的imatrix量化技术,可在不同硬件条件下更高效地运行。模型支持俄语和英语,主要用于文本生成任务。
这是allenai的Olmo-3-32B-Think模型的GGUF量化版本,通过llama.cpp工具进行多种量化处理,旨在提升模型在特定环境下的性能和效率。提供了从Q2到Q8的多种量化选项,满足不同硬件配置和性能需求。
ubergarm
这是ai-sage/GigaChat3-10B-A1.8B-bf16模型的GGUF量化版本,提供了多种量化选项,从高精度的Q8_0到极度压缩的smol-IQ1_KT,满足不同硬件条件下的部署需求。该模型支持32K上下文长度,采用MLA架构,专为对话场景优化。
mradermacher
这是wexyyyyyy/Ru-Gemma3-1B模型的静态量化版本,支持俄语和英语,专为对话和文本生成任务设计。该模型提供了多种量化版本,适用于不同的硬件配置和性能需求。
MaziyarPanahi
本项目提供了Qwen3-4B-Thinking-2507模型的GGUF格式文件,这是一个具有思维链推理能力的4B参数大语言模型,支持多种量化版本,便于在各种硬件上部署运行。
mratsim
GLM-4.5-Iceblink-v2-106B-A12B-FP8是基于GLM-4.5-Iceblink-v2-106B-A12B模型,采用最先进的混合专家量化方法进行FP8量化的版本。该模型专门针对支持硬件FP8的Ada、Hopper或Blackwell系列GPU优化,在保持高质量输出的同时显著提升推理效率。
Diver-GroupRank-7B是一个专门用于段落排序、文本排序、推理和信息检索的7B参数模型。本版本提供了多种量化格式,适用于不同的硬件和性能需求。
基于AQ-MedAI/Diver-GroupRank-7B模型的静态量化版本,专门用于段落排序、文本排序、推理和信息检索等任务。提供了多种量化级别以适应不同的硬件需求。
VibeThinker-1.5B-GGUF 是 WeiboAI/VibeThinker-1.5B 模型的 GGUF 量化版本,由 MaziyarPanahi 进行量化处理。该模型是一个 1.5B 参数的文本生成模型,支持多种量化级别(2位到8位),便于在各种硬件上高效运行。
这是基于p-e-w发布的Llama-3.1-8B-Instruct-heretic模型的量化版本,使用llama.cpp b7049版本进行imatrix量化。提供了多种量化选项以适应不同硬件和性能需求,支持在LM Studio或llama.cpp中运行。
这是p-e-w/gpt-oss-20b-heretic模型的量化版本,使用llama.cpp的imatrix技术进行量化处理。该模型是一个200亿参数的大语言模型,提供了多种量化选项,从高质量到低质量不等,文件大小从41.86GB到11.52GB,适用于不同硬件条件。
这是adith-ds/emotion-classifier-v2模型的静态量化版本,提供了多种GGUF量化格式,适用于情感分类任务。模型经过优化,可在不同硬件环境下高效运行。
本项目提供了Qwen-4B-Instruct-2507-Self-correct模型的静态量化版本,支持文本生成、偏差缓解、自我修正等任务。该模型基于Qwen-4B架构,经过指令微调和自我修正训练,提供多种量化版本以适应不同硬件需求。
Awesome MCP Servers 是一个全面的Model Context Protocol (MCP)服务器集合,涵盖了7158个MCP服务器,分为33个类别,包括AI集成、艺术媒体、浏览器自动化、云服务、数据库、开发者工具、文件系统、金融、游戏、硬件、医疗、基础设施、知识管理、位置地图、市场营销、监控、多媒体处理、操作系统、项目管理、科学研究、安全、社交媒体、旅行交通、实用工具和版本控制等。
基于mcp-server的项目,支持AI大模型高效调用spinq的量子计算硬件资源,提供Windows和macOS的一键安装脚本,自动检测Python环境并安装依赖。
一个专业的串口通信MCP服务器,为AI助手提供全面的串口通信能力,支持嵌入式系统、物联网设备和硬件调试,具有跨平台支持和多种数据格式处理功能。
mcp2tcp是一个连接物理硬件与AI大模型的桥梁项目,通过MCP协议实现自然语言控制硬件设备。
一个用于与计算机外设无缝集成的MCP服务器,提供统一的API来控制、监控和管理硬件设备,包括摄像头、打印机、音频设备和屏幕。
mcp2mqtt是一个连接物联网设备与AI大模型的桥梁项目,通过MCP和MQTT协议实现自然语言控制硬件设备。
一个轻量级服务器,通过简单API暴露Mac系统信息,帮助AI助手获取实时硬件和系统数据,主要用于Mac用户的AI和深度学习实验。
MCP2Serial是一个连接物理设备与AI大模型的桥梁项目,通过自然语言控制硬件设备,实现物联网智能化控制。
FortunaMCP是一个基于硬件熵的高性能随机数生成服务器,通过多种统计分布模型为AI应用提供真实不可预测的随机值,适用于模拟仿真和游戏场景。
一个专业的嵌入式调试MCP服务器,提供AI助手全面的嵌入式系统调试能力,支持ARM Cortex-M和RISC-V微控制器,与真实硬件集成。
ESP32 CYD开发板的MCP服务器实现,提供通过WebSocket协议远程控制显示屏、触摸、GPIO、传感器等硬件功能的完整解决方案。
IntelliGlow是一个基于MCP协议的智能照明系统,通过AI助手控制真实智能灯泡,支持语音命令、AI推理和直接硬件控制,实现自然语言交互和智能灯光管理。
Opentrons MCP Server是一个为Opentrons机器人自动化提供API文档和直接控制功能的工具,支持Flex和OT-2型号机器人,包含协议管理、运行控制、硬件操作等功能。
JetsonMCP是一个通过SSH连接管理NVIDIA Jetson Nano边缘计算设备的MCP服务器,提供AI工作负载优化、硬件配置和系统管理功能,支持自然语言指令转换为专业操作命令。
env-mcp 是一个跨平台的系统信息获取工具包,支持通过 MCP 协议获取详细的硬件、软件和网络环境信息。
JetsonMCP是一个MCP服务器,通过SSH连接帮助AI助手管理和优化NVIDIA Jetson Nano边缘计算系统,提供AI工作负载部署、硬件优化和系统管理功能。
KognitiveKompanion是一个现代多功能的AI交互界面,支持KDE等多种桌面环境,集成OpenAI、Ollama及AMD Ryzen AI硬件加速等多种后端,提供高级UI、上下文功能和对话管理。
YDB是一个开源的分布式SQL数据库,结合了高可用性、可扩展性、严格一致性和ACID事务支持。它支持多租户和无服务器架构,适用于大规模OLTP工作负载,并能自动处理硬件故障恢复。
AnyPixel.js是一个开源软硬件库,用于创建大型、非传统、交互式显示装置。它提供完整的硬件设计、固件、后端和前端框架,支持开发者构建基于网页的交互式像素显示系统。
一个基于FastMCP和vgamepad的Xbox控制器模拟服务器,提供按钮、摇杆和扳机控制功能,支持硬件和模拟两种模式。