GitHub深度集成Claude与Codex,转型为多模型协同开发的“智能体总部”,面向高级订阅用户开放预览,提升编程效率。
Positron发布AI推理芯片Asimov,宣称其能效比和性价比预计达英伟达下一代产品的5倍,引发行业关注。该芯片针对大模型推理优化,通过简化GPU架构提升效率。
西门子收购法国半导体测量软件公司Canopus AI,以加强其在半导体行业的技术布局。该交易于2026年1月12日完成,Canopus AI专注于运用人工智能技术提升晶圆和掩膜的检测效率与精度,助力西门子扩展软件领域实力。
国资委将加强“AI+”专项行动,推动央企在智能计算和AI产业中发挥更大作用。AI技术已在政务、工业等领域应用,提升效率与服务。中国电信等企业积极响应,与行业领先者合作推进AI发展。
专为 Mac 用户设计的 AI 语音助手,通过语音指令实现润色、翻译及自动化办公。
TENDERD AI驱动的车队管理平台,提升运营效率、安全与可持续性
在你编写代码的同时进行设计,提升工程效率。
使用 AI 生成客户服务邮件回复,提升效率。
Xai
$1.4
Input tokens/M
$3.5
Output tokens/M
2k
Context Length
Openai
$7.7
$30.8
200
-
Anthropic
$7
$35
Google
$2.1
$17.5
1k
$0.7
$2.8
Alibaba
$8
$240
52
$2
256
Bytedance
$0.8
128
Tencent
$1
$4
32
Chatglm
$16
$1.8
$5.4
16
bartowski
这是allenai的Olmo-3-32B-Think模型的GGUF量化版本,通过llama.cpp工具进行多种量化处理,旨在提升模型在特定环境下的性能和效率。提供了从Q2到Q8的多种量化选项,满足不同硬件配置和性能需求。
mratsim
GLM-4.5-Iceblink-v2-106B-A12B-FP8是基于GLM-4.5-Iceblink-v2-106B-A12B模型,采用最先进的混合专家量化方法进行FP8量化的版本。该模型专门针对支持硬件FP8的Ada、Hopper或Blackwell系列GPU优化,在保持高质量输出的同时显著提升推理效率。
MedSwin
本项目是使用mergekit对预训练语言模型进行合并的成果,结合了多个医学领域的预训练模型,为医学问答任务提供了更强大的支持,可有效提升医学问题回答的准确性和效率。
noctrex
本项目是卡纳娜1.5-15.7B-A3B指令模型的MXFP4_MOE量化版本,可在特定场景下提升模型的运行效率。该模型基于kakaocorp/kanana-1.5-15.7b-a3b-instruct进行优化,采用混合专家架构和MXFP4量化技术。
moonshotai
Kimi Linear是一种高效混合线性注意力架构,在短上下文、长上下文和强化学习场景中均优于传统全注意力方法。它通过Kimi Delta Attention (KDA)机制优化注意力计算,显著提升性能和硬件效率,特别擅长处理长达100万令牌的长上下文任务。
这是PokeeAI的pokee_research_7b模型的量化版本,使用llamacpp进行imatrix量化,能有效提升模型在不同硬件上的运行效率,让用户在低资源环境下也能体验到模型的强大能力。
本项目是对Qwen3-30B-A3B-YOYO-V4模型进行的MXFP4_MOE量化版本。该量化技术能够显著提升模型在资源受限环境下的运行效率,同时保持较好的模型性能,适用于需要高效推理的各种场景。
本项目提供了慧慧Qwen3-VL-30B-A3B-Instruct模型的量化版本,旨在提升模型在特定场景下的性能与效率。这是一个基于Qwen3-VL架构的视觉语言模型,支持图像和文本的多模态交互。
这是SmallThinker - 21BA3B - Instruct模型的MXFP4_MOE量化版本,专门针对特定场景进行了优化,旨在提升模型的性能和推理效率。该量化版本保持了原模型的核心能力,同时在资源消耗和推理速度方面有所改进。
lmstudio-community
Qwen3-VL-8B-Instruct是由Qwen团队开发的多模态视觉语言模型,支持图像文本到文本转换。该版本经过MLX 8位量化处理,专门针对苹果硅芯片进行优化,在保持性能的同时提升运行效率。
这是Kwaipilot的KAT-Dev模型的量化版本,使用llama.cpp的imatrix量化技术处理,旨在提升模型在不同硬件环境下的运行效率和性能。该版本提供多种量化级别,从高质量到极致压缩,适应不同的内存和计算资源需求。
这是一个基于swiss-ai的Apertus-70B-Instruct-2509模型进行量化处理的版本,使用llama.cpp的imatrix技术生成多种量化模型文件,旨在提升模型运行效率和资源利用率,支持在不同硬件条件下灵活选择适合的量化级别。
这是IBM Granite 4.0 Micro模型的量化版本,使用llama.cpp的imatrix技术进行优化处理,旨在提升模型在特定环境下的运行效率和性能。该版本提供了多种量化级别选择,适用于不同的硬件配置和使用场景。
QuantTrio
DeepSeek-V3.2-Exp-AWQ是基于DeepSeek-V3.2-Exp模型的量化版本,通过vLLM框架实现高效文本生成。该模型引入了DeepSeek稀疏注意力机制,在长上下文训练和推理效率上有显著提升,同时保持了模型输出质量。
nightmedia
Huihui-gpt-oss-20b-mxfp4-abliterated-v2-qx86-hi-mlx是一个基于20B参数的大语言模型,采用量化技术优化,专门针对MLX框架进行格式转换。该模型通过高精度量化技术,在保持模型精度的同时显著提升推理效率,适用于多种自然语言处理任务。
deepseek-ai
变换器库是一个强大的自然语言处理工具库,提供丰富的预训练模型和便捷的使用接口,广泛应用于文本生成、分类、翻译等NLP任务,极大提升开发效率。
cpatonn
Qwen3-Next-80B-A3B-Instruct是通义千问团队开发的高效稀疏混合专家模型,总参数量80B,激活参数量仅3B。该模型采用创新的混合注意力机制和极低激活率的MoE架构,在保持强大性能的同时大幅提升推理效率,原生支持262K上下文长度并可扩展至1M令牌。
nunchaku-tech
基于Stable Diffusion XL Base 1.0的量化版本,通过SVDQuant技术实现4位量化,在保持高质量图像生成能力的同时显著提升推理效率。
RedHatAI
这是一个基于EAGLE-3推测解码算法的推测器模型,专门设计用于与Qwen/Qwen3-32B模型配合使用,通过推测解码技术提升文本生成效率,在数学推理和通用问答方面有良好表现。
jinaai
jina-reranker-v3是一款参数为0.6B的多语言文档重排器,采用创新的'最后但不迟的交互'架构,能够在多语言环境下高效准确地对文档进行重排,显著提升信息检索的相关性和效率。
Deebo是一个AI调试助手,能够加速代码错误的解决过程,通过自动化调查和多线程工作流提升开发效率。
Rsdoctor 是一款专为 Rspack 生态系统打造的构建分析工具,全面兼容 webpack,提供可视化构建分析、多维度性能诊断及智能优化建议,帮助开发者提升构建效率与工程质量。
DeepContext是一个MCP服务器,为代码助手提供基于符号感知的语义搜索功能,通过智能解析代码结构和语义关系,在大型代码库中精准定位相关代码片段,提升开发效率。
HyperTool是一个MCP服务器管理工具,允许AI动态切换和使用来自多个MCP服务器的工具集,突破工具数量限制,通过智能工具集提升AI工具选择的准确性和效率。
Cheat Engine MCP桥接器是一个将AI助手通过MCP协议连接到Cheat Engine内存分析工具的项目,允许用户通过自然语言指令直接查询和操作程序内存,大幅提升逆向工程和调试效率。
一个防止AI幻觉的MCP服务,当AI不确定时可以向人类提问而非盲目自信,通过简单的问答机制提升开发效率。
飞书MCP服务器为AI编码工具提供飞书文档访问能力,支持文档创建、内容操作与编辑,提升开发效率。
该项目提供了一套开发工具集,包含AI辅助模板和实用脚本,用于提升开发效率和项目管理规范性。
Cursor Rust Tools是一个MCP服务器,为Cursor中的LLM提供Rust Analyzer、Crate文档和Cargo命令的访问能力,提升AI代理在Rust开发中的效率。
一个高性能的SQLite MCP服务器,采用创新的Codemode代码生成方法,使LLM通过生成Go代码执行数据库操作,相比传统工具调用显著提升效率和降低延迟。
MCP Probe Kit 是一个强大的开发工具集,提供23个实用工具,覆盖代码质量检测、开发效率提升和项目管理全流程,专为Cursor AI设计,帮助开发者提高开发效率和质量
一个MCP服务器,为AI编程助手提供上下文优化工具,通过精准提取信息而非处理大量终端输出和文件来节省上下文空间,提升助手效率。
这是一个专为Local by Flywheel设计的MCP服务器,让AI助手能够直接读取WordPress数据库,自动检测MySQL实例并执行只读查询,极大提升开发效率。
MCP移动服务器是一个AI驱动的移动开发工具集,为Claude Desktop等MCP客户端提供36个强大的Flutter、Android和iOS开发工具,包括智能设备管理、自动化构建和跨平台部署功能,显著提升移动开发效率。
Chatty MCP是一款为编辑器设计的语音交互插件,能在完成AI请求后通过语音总结操作内容,提升多任务处理效率,支持自定义语音引擎。
该项目是Cursor AI集成开发环境的资源中心,包含提升开发效率的规则、协议服务和工具集合,支持自定义AI行为和项目规范。
MCP Context Template是一个集中管理AI工具上下文的仓库,旨在降低上下文共享成本并提升开发效率,为团队提供统一的AI协作标准和文档结构。
MCP代码索引器是一个专为AI大语言模型设计的智能代码检索工具,通过语义理解和向量化索引提升代码处理效率和准确性,支持代码分析、质量评估和依赖管理等功能。
Laravel开发辅助工具包,专为Cursor IDE设计,提升开发效率
Jira Context MCP是一个集成Jira与Cursor IDE的模型上下文协议实现,允许开发者通过AI助手直接获取Jira工单信息、过滤问题类型并自动修复问题,提升开发效率。