中国AI公司月之暗面在达沃斯论坛宣布,其Kimi模型仅用美国顶尖实验室1%的计算资源,便研发出性能领先的开源大模型,部分指标超越美国闭源模型,展示了高效创新的技术路径。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://app.aibase.com/zh1、淘宝天猫出重拳!新版Siri将支持语音与文本双输入,并集成于iOS27及其全线操作系统中,同时借助谷歌Gemini模型提升性能。
在2026年达沃斯论坛上,DeepMind CEO哈萨比斯指出,中国AI技术已接近西方,差距缩小至约6个月。他特别肯定国产模型DeepSeek R1,称其性能令人印象深刻,曾引发硅谷震动。
阶跃星辰开源多模态视觉语言模型Step3-VL-10B,仅10B参数却在多项基准测试中表现卓越,解决了小模型智能水平不足的痛点。该模型在视觉感知、逻辑推理和数学竞赛等维度达到同规模最优,甚至超越规模大10至20倍的开源及闭源旗舰模型。
统一市场集成管理数千API,含多种AI模型,快集成、优性能、全文档
一个API连接所有顶尖AI模型,高性能且性价比高,支持多类型生成。
Snowglobe帮助AI团队在规模上测试LLM应用。在推出之前模拟真实对话,发现风险并提高模型性能。
GPT 5是下一代AI模型,提供卓越的编码、数学和推理性能。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$6
$24
Baidu
128
$2
$20
bartowski
这是对TheDrummer的Magidonia-24B-v4.3大语言模型进行量化处理后的版本。通过使用llama.cpp的imatrix量化技术,生成了从BF16到IQ2_XS等多种精度的GGUF格式文件,旨在不同硬件条件下(尤其是资源受限环境)更高效地运行模型,同时尽可能保持模型性能。
本项目是TheDrummer的Cydonia-24B-v4.3模型的量化版本,使用llama.cpp进行量化处理,旨在提供不同量化类型的模型文件,以满足不同硬件和性能需求。它是一个24B参数的大语言模型,主要用于文本生成任务。
MaziyarPanahi
这是NousResearch/Hermes-4.3-36B模型的GGUF量化格式版本,由MaziyarPanahi进行量化处理。GGUF是一种高效的模型格式,旨在优化本地部署和推理性能,支持多种量化级别(2位至8位),适用于广泛的文本生成任务。
DavidAU
Qwen3-4B-Hivemind-Instruct-NEO-MAX-Imatrix-GGUF 是一款基于 Qwen3 架构的 4B 参数指令微调大语言模型,采用 NEO Imatrix 与 MAX 量化技术,具备 256k 的超长上下文处理能力。该模型在多个基准测试中表现出色,是一款性能强劲的通用型模型。
这是由Mistral AI开发的大型语言模型Mistral-Large-3-675B-Instruct-2512的GGUF量化版本。原始模型拥有6750亿参数,专为指令遵循任务设计。本项目使用llama.cpp工具,结合imatrix校准数据集,生成了从Q8_0到IQ1_S共20多种不同精度的量化模型文件,旨在平衡模型性能、推理速度与存储/内存占用,使其能在更广泛的硬件上运行。
T5B
Z-Image-Turbo 是经过 FP8 E5M2 和 E4M3FN 格式量化的图像处理模型,基于原始 Tongyi-MAI/Z-Image-Turbo 模型优化,在保持性能的同时显著减少模型大小和推理资源需求。
PrimeIntellect
INTELLECT-3是一个拥有1060亿参数的混合专家(MoE)模型,通过大规模强化学习训练而成。在数学、编码和推理基准测试中展现出卓越性能,模型、训练框架和环境均以宽松许可协议开源。
这是微软Fara-7B模型的量化版本,使用llama.cpp的imatrix技术进行优化。该模型支持多种量化级别,从高精度的bf16到极低精度的IQ2_M,满足不同硬件配置和性能需求。
这是ArliAI的GLM-4.5-Air-Derestricted模型的GGUF量化版本,使用llama.cpp和imatrix技术进行优化量化处理,提供多种量化级别选择,适用于不同硬件配置和性能需求。
这是由miromind-ai开发的MiroThinker-v1.0-8B模型的量化版本,使用特定工具和数据集进行量化处理,提供多种量化类型的文件供用户选择,可在不同环境中运行,以满足不同性能和质量需求。
noctrex
这是一个基于Huihui-MiroThinker-v1.0-30B模型进行的MXFP4_MOE imatrix量化版本,专门针对文本生成任务优化,在保持模型性能的同时显著减小了模型体积和推理成本。
这是TheDrummer的Snowpiercer-15B-v4模型的量化版本,使用llama.cpp和imatrix技术进行量化处理。该版本提供了从BF16到IQ2_S等多种量化级别,满足不同硬件条件和性能需求的用户。模型使用特定数据集进行校准优化,支持在线重打包功能以提升在ARM和AVX硬件上的性能。
nightmedia
GLM-4.5-Air-REAP-82B-A12B-mxfp4-mlx是基于GLM-4.5-Air模型通过REAP方法压缩的82B参数大语言模型,采用MXFP4量化格式,专为Mac设备优化,在保持核心任务性能的同时显著减少内存占用。
这是allenai的Olmo-3-32B-Think模型的GGUF量化版本,通过llama.cpp工具进行多种量化处理,旨在提升模型在特定环境下的性能和效率。提供了从Q2到Q8的多种量化选项,满足不同硬件配置和性能需求。
jayn7
本项目提供了腾讯HunyuanVideo-1.5-I2V-720p模型的量化GGUF版本,专门用于图像转视频和视频生成任务。该模型支持将静态图像转换为高质量视频内容,提供了多种量化版本以优化性能。
lightx2v
为HunyuanVideo-1.5优化的量化模型,与LightX2V框架配合使用,在显著减少内存使用的同时保持高质量视频生成性能。
这是kldzj的GPT-OSS-120B-Heretic-v2模型的量化版本,使用llama.cpp的imatrix技术进行量化处理。该模型通过量化技术显著减少了存储和计算资源需求,同时保持了较好的模型性能,便于在各种设备上部署运行。
mradermacher
这是wexyyyyyy/Ru-Gemma3-1B模型的静态量化版本,支持俄语和英语,专为对话和文本生成任务设计。该模型提供了多种量化版本,适用于不同的硬件配置和性能需求。
MedSwin
本项目是使用预训练语言模型融合技术创建的医学领域模型,通过融合多个医学相关的预训练模型,专门针对医学问答任务进行优化,提升在医学场景下的性能和效果。
Dogacel
这是一个基于原始DeepSeek-OCR模型的优化版本,专门支持在苹果金属性能着色器(MPS)和CPU上进行推理的OCR模型。它能够从图像中提取文本并转换为结构化格式,支持多语言文档识别。
Tailpipe MCP服务器是一个AI驱动的日志分析工具,通过模型上下文协议连接AI助手与云端/SaaS日志数据,支持自然语言查询和分析各类云服务日志,提供安全事件调查、成本性能洞察等功能。
Nano Agent是一个实验性的小型工程代理MCP服务器,支持多提供商LLM模型,用于测试和比较云端与本地LLM在性能、速度和成本方面的代理能力。项目包含多模型评估系统、嵌套代理架构和统一工具接口,支持OpenAI、Anthropic和Ollama等提供商。
Meta Ads MCP是一个基于Model Context Protocol的服务器,用于通过标准化接口与Meta广告API交互,使AI模型能够访问、分析和管理Meta广告活动,包括获取性能数据、可视化广告创意和提供战略建议。
Umami Analytics MCP Server是一个增强Claude能力的模型上下文协议服务器,提供对Umami网站分析数据的访问,支持用户行为分析和网站性能跟踪。
一个提供Google PageSpeed Insights分析的MCP服务器,帮助AI模型通过标准化接口分析网页性能。
Sentry MCP服务器是一个用于与Sentry交互的模型上下文协议服务器,提供工具来检索和分析错误数据、管理项目和监控应用性能。
MCP互联网速度测试是一个实验性项目,通过标准化的MCP协议为AI模型提供网络性能测试工具,包括下载/上传速度、延迟和抖动测量等功能。
交互式反馈MCP项目,通过集成模型上下文协议(MCP)在关键点提供智能交互反馈,优化AI助手的用户交互流程,减少资源消耗并提升性能。
PageSpeed MCP服务器是一个连接AI助手与谷歌PageSpeed Insights API的桥梁,为AI模型提供网站性能分析功能,包括核心性能指标、SEO评估、可访问性审计和资源优化建议。
Ollama-MCP-server是一个连接本地Ollama LLM实例与MCP兼容应用的协议服务器,提供任务分解、结果评估、模型管理等功能,支持标准化通信和性能优化。
GemSuite MCP是最全面的Gemini API集成服务器,通过智能模型选择提供最优性能、最低令牌成本和无缝集成,支持多种文件处理和复杂任务。
Ultimate MCP Server是一个基于模型上下文协议(MCP)的AI代理操作系统,提供数十种强大工具能力,包括认知增强、工具使用和智能编排等功能。该系统通过标准化MCP工具暴露功能,使高级AI代理能访问丰富的工具生态系统和专业化服务,同时优化成本、性能和质量。
Lighthouse MCP Server是一个基于Google Lighthouse的模型上下文协议服务器,提供全面的网站性能审计和分析功能,包括性能评分、可访问性检查、SEO分析和安全评估。
OpenRouter MCP服务器提供与OpenRouter.ai模型生态系统的无缝集成,支持多种AI模型访问和性能优化。
OpenRouter MCP多模态服务器是一个通过OpenRouter.ai提供文本聊天和图像分析功能的协议服务器,支持多种模型选择和性能优化。
Yandex Tracker MCP服务器是一个为AI助手提供与Yandex Tracker API交互的模型上下文协议服务,支持队列管理、用户管理、问题操作和高级搜索功能,提供安全认证访问和性能缓存。
CryptoWeather AI比特币信号是一个通过模型上下文协议(MCP)提供实时比特币价格预测的AI服务,包含交易建议、性能指标和信号分析功能,每小时更新一次数据。
一个用于查询New Relic日志的MCP服务器,支持通过NRQL查询语言与LLM模型(如Claude)交互,提供日志查询、错误分析和性能监控功能。
一个基于Model Context Protocol的服务,提供Google PageSpeed Insights网页性能分析功能,使AI模型能通过标准化接口评估网页加载表现。
BlazeMeter MCP服务器项目,提供与BlazeMeter API集成的模型上下文提供者服务,支持程序化访问性能测试数据和管理功能。