中国移动推出首款消费级家庭服务型具身智能产品“灵犀”四足机器人,以“拟人化交互”和“场景化服务”为核心,旨在满足儿童陪伴、老人照护和家庭安全等多元化需求。产品深度融合AI大模型技术,具备强大的自然语言理解和持续学习能力,可精准理解用户意图。
瞳行科技推出国内首款AI助盲眼镜,集成阿里通义千问大模型,为视障人士提供实时出行辅助。产品由眼镜、手机、遥控指环和盲杖协同工作,通过双摄像头实现300毫秒低延迟路况播报,支持识别公交牌、路标及环境概述。技术总监陈刚表示,大模型压缩70%研发成本,加速算法落地。眼镜还具备本地文本识别功能。
网易有道词典2025年度热词揭晓,“DeepSeek”以867万次搜索量登顶,成为首个源自国产AI大模型的年度词汇。搜索热度自2月DeepSeek-R1模型发布后迅速攀升,后续技术突破均带动查询高峰。大学生和职场人群为主要搜索群体,用户查词后常延伸浏览“大模型”等相关概念,形成“查词—学习概念”的链条,反映出AI技术普及推动公众认知深化的趋势。
英伟达在NeurIPS大会上发布新基础设施与AI模型,加速物理AI技术发展,涉及机器人及自动驾驶领域。其中,Alpamayo-R1作为首个自动驾驶推理视觉语言模型亮相,专为自动驾驶研究设计,具备感知与交互现实世界的能力。
高效的视觉编码技术,提升视觉语言模型性能。
首个融合区块扩散和专家混合技术的高效推理语言模型
基于支付宝的生活场景,通过领先的大模型技术,为企业快速构建专业级智能体。
OmniParser V2 是一种将任何 LLM 转化为计算机使用代理的技术。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$6
$24
Baidu
128
$2
$20
nightmedia
这是一个实验性的量化大语言模型,采用Deckard(qx)量化方法,嵌入层为3位量化。该模型通过范数保持双投影消除(NPBA)技术重构,不仅移除了安全限制机制,还增强了模型的认知深度和推理能力。
bartowski
这是一个基于REAP方法对MiniMax-M2中40%专家进行均匀剪枝得到的139B参数大语言模型,采用GLM架构和专家混合(MoE)技术,通过llama.cpp进行多种量化处理,适用于文本生成任务。
这是p-e-w/gpt-oss-20b-heretic模型的量化版本,使用llama.cpp的imatrix技术进行量化处理。该模型是一个200亿参数的大语言模型,提供了多种量化选项,从高质量到低质量不等,文件大小从41.86GB到11.52GB,适用于不同硬件条件。
DavidAU
基于Qwen 3微调的12B参数大语言模型,具备256k超长上下文处理能力,专门针对长文本生成任务进行优化。该模型结合了VLTO 8B模型基础、Brainstorm 20x调优和NEO Imatrix数据集量化技术,能够生成高质量的长文本内容。
cyankiwi
ERNIE-4.5-VL-28B-A3B-Thinking AWQ - INT8是基于百度ERNIE-4.5架构的多模态大语言模型,通过AWQ量化技术实现8位精度,在保持高性能的同时大幅降低内存需求。该模型在视觉推理、STEM问题解决、图像分析等方面表现出色,具备强大的多模态理解和推理能力。
Smith-3
这是一个专为圣西蒙大学科学与技术学院学生设计的微调AI模型,集成在TecnoTime应用程序中,帮助学生保持学习组织性、提高学术连续性,通过结构化通知和激励信息强化学习习惯。
QuantStack
本项目是基于Flux架构的文本到图像模型Nepotism的量化版本,采用SVDQuant技术进行优化。提供了INT4和FP4两种量化格式,分别适用于不同世代的GPU硬件,在保持图像生成质量的同时显著减少模型大小和内存占用。
noctrex
这是Qwen3-Yoyo-V4-42B-A3B-Thinking-TOTAL-RECALL模型的MXFP4_MOE量化版本,专门针对文本生成任务进行了优化。该模型基于42B参数的大语言模型架构,通过量化技术降低计算和存储需求,同时保持较好的性能表现。
这是Huihui-gpt-oss-20b-BF16-abliterated-v2模型的MXFP4_MOE量化版本,专门针对文本生成任务进行了优化。该模型通过量化技术减小了模型大小,同时保持了良好的生成性能。
本项目是对Qwen3-VL-235B-A22B-Thinking模型进行MXFP4_MOE量化处理,旨在提供更高效的图像文本到文本转换能力。该版本来自unloth,已将上下文大小从256k扩展到1M,通过特定的量化技术优化模型在不同场景下的性能表现。
Qwen3-Next-80B-A3B-Thinking-1M-qx64n-mlx是一个采用混合专家架构和Deckard混合精度量化技术的大语言模型,具有800亿参数和1M标记的上下文长度。该模型在科学技术推理和长文本处理方面表现卓越,相比指令模型在认知基准测试中提升20-35%。
基于Flux.1的文本到图像模型的量化版本,采用SVDQ量化技术,提供INT4和FP4两种精度,适用于不同GPU配置的用户,在保持图像质量的同时显著减少模型大小和内存占用。
nvidia
NVIDIA-Nemotron-Nano-VL-12B-V2-FP4-QAD 是 NVIDIA 推出的自回归视觉语言模型,基于优化的 Transformer 架构,能够同时处理图像和文本输入。该模型采用 FP4 量化技术,在保持性能的同时显著减少模型大小和推理成本,适用于多种多模态应用场景。
这是Ling-flash-2.0模型的MXFP4_MOE量化版本,专门针对文本生成任务进行了优化。该版本通过MXFP4_MOE量化技术,在保持模型性能的同时显著减小了模型大小,提高了推理效率。
Qwen
Qwen3-VL-32B-Thinking-FP8是Qwen系列中最强大的视觉语言模型的FP8量化版本,采用块大小为128的细粒度fp8量化技术,性能指标与原始BF16模型几乎相同。该模型具备出色的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持以及强大的智能体交互能力。
mradermacher
本项目是基于TECHNOPRAVIN01/Qwen2.5-14B-Valor模型的静态量化版本,提供多种量化类型以满足不同硬件条件下的使用需求。该模型通过量化技术减小了模型大小,同时保持了较好的性能表现。
Qwen3-Nemotron-32B-RLBFF是基于Qwen/Qwen3-32B微调的大语言模型,通过强化学习反馈技术显著提升了模型在默认思维模式下生成回复的质量。该模型在多个基准测试中表现出色,同时保持较低的推理成本。
RESMP-DEV
这是使用LLM Compressor和NVFP4格式对Qwen/Qwen3-Next-80B-A3B-Thinking进行量化后的版本,采用FP4微缩放技术,在保持高精度的同时大幅减少模型存储和计算需求。
这是gustavecortal的Beck-8B模型的量化版本,通过llama.cpp的imatrix量化技术处理,提供多种量化级别选择,在保持模型性能的同时显著减小模型大小,适合不同硬件配置下的部署。
这是一个72B参数的大型语言模型量化版本,使用llama.cpp的imatrix技术进行优化量化处理,提供了多种量化级别以适应不同硬件条件,支持在LM Studio和llama.cpp等环境中运行。
该项目是一个基于Model Context Protocol (MCP)标准的文档处理服务器,通过构建向量数据库和MCP接口,使AI助手能够访问外部文档资源,突破大语言模型的知识限制。项目包含文档处理流水线和MCP服务端两大组件,支持多种嵌入模型和文件格式,可应用于最新技术文档查询、私有代码库理解等场景。
Unsloth MCP Server是一个用于高效微调大语言模型的服务器,通过优化算法和4位量化技术,实现2倍训练速度提升和80%显存节省,支持多种主流模型。
MCP开发框架是一个用于创建与大语言模型交互自定义工具的强大框架,提供文件处理、网页内容获取等功能,支持PDF、Word、Excel等多种格式,具有智能识别、高效处理和内存优化等技术特点。
一个极简的微信文章阅读器MCP服务,通过浏览器模拟和内容提取技术,让大模型能够获取并分析微信公众号文章内容。
Unsloth MCP Server是一个用于高效微调大语言模型的服务器,通过优化技术实现2倍速度提升和80%内存节省。
ChuckNorris MCP服务器是一个专为大型语言模型设计的增强提示工具,采用动态模式适应技术来绕过安全限制,主要用于安全研究和评估目的。
MCP开发框架是一个用于与大语言模型交互的强大工具集,提供文件处理(PDF/Word/Excel)、网页内容获取等功能,支持Cursor IDE扩展,具有智能文件识别、高效处理和内存优化等技术特点。
Unsloth MCP Server是一个用于高效微调大语言模型的服务,基于Unsloth库实现2倍加速和80%内存节省,支持多种模型和量化技术。
该项目实现了一个基于MCP协议的CRM-AI服务中间层,提供数据安全处理、智能对话管理和潜在客户分析功能,通过匿名化技术和令牌系统保护敏感数据,同时支持与大型语言模型的集成。
BRAINS OS是一个基于现代云原生技术的AI操作系统,专为管理大型语言模型和专用AI代理设计,提供可视化工作流编辑、统一命令系统和安全部署框架。
HUDU MCP Server是一个与HUDU技术文档和客户信息管理系统集成的模型上下文协议服务器,允许大型语言模型通过API交互获取客户账户信息、知识库文章、资产数据等。
这是一个包含多个开源AI项目的列表,涵盖了从自动化代理、大语言模型、图像生成到AI开发框架等多个领域。这些项目旨在帮助开发者利用AI技术赚钱,包括构建智能助手、自动化工作流、内容生成等应用。