阿里巴巴旗下ATH事业群推出AI开发工具Meoo(秒悟),集成千问、Kimi、GLM和MiniMax四大模型,支持用户零门槛将创意转化为产品。用户只需用自然语言描述想法,即可在一分钟内自动生成网站或H5页面,并一键部署至阿里云上线。
月之暗面推出专为AI编程优化的万亿参数大模型Kimi K2.6-code-preview,已在Kimi Code上线,标志着国产编程AI进入万亿参数时代。该模型在K2.5基础上深度优化,重点提升推理深度、代码生成可靠性和多轮对话能力,思维链表现更强,代码生成更稳定,支持复杂编程任务。
月之暗面(Moonshot AI)在Kimi K2.5模型发布仅一个月后,年度经常性收入(ARR)突破1亿美元,创下国产大模型企业变现新纪录。这标志着大模型商业化进入爆发期,算力资源供不应求,企业需预付千万美元锁定供应。
月之暗面发布Kimi K2.5模型后,其年度经常性收入迅速突破1亿美元,跻身全球AI商业化前列。这证明了“思考型模型”在企业端的高变现价值,客户甚至预付千万美元抢购算力。
强大的开源Kimi K2聊天平台,通过Kimi AI在编程和数学基准测试中超越GPT-4。企业级Kimi AI,成本降低95%。
开源编码 LLM,专为软件工程任务设计。
Kimi-Audio 是一个开源音频基础模型,擅长音频理解与生成。
高效的开源专家混合视觉语言模型,具备多模态推理能力。
Moonshot
$4
输入tokens/百万
$16
输出tokens/百万
256
上下文长度
Minimax
-
$5
$20
32
$2
$10
8
$30
131
$200
$8
$32
262
$1
mlx-community
该模型是 Kimi-Linear-48B-A3B-Instruct 的 MLX 格式转换版本,专为苹果 Mac Studio 等 Apple Silicon 设备优化。它是一个 480 亿参数的大型语言模型,支持指令跟随,适用于本地推理和对话任务。
inferencerlabs
Kimi - K2 - Thinking 3.825bit MLX 是一款用于文本生成的量化模型,通过不同的量化方式在测试中取得不同的困惑度表现,其中q3.825bit量化能达到1.256的困惑度。
DevQuasar
本项目基于 moonshotai/Kimi-K2-Thinking 基础模型,通过自定义反量化脚本将原始的INT4模型转换为更高质量的文本生成模型,致力于让知识为每个人所用。
基于MLX库实现的文本生成模型,支持多种量化方式推理,具备分布式计算能力,可在苹果硬件环境下高效运行。
Kimi-K2-Thinking 是由 mlx-community 从 moonshotai 原版模型转换而来的 MLX 格式大语言模型,采用 mlx-lm 0.28.4 版本进行转换,保留了原模型的思维链推理能力。
moonshotai
Kimi K2 Thinking 是月之暗面(Moonshot AI)开发的最新一代开源思维模型,具有强大的深度推理能力和工具调用功能。该模型采用混合专家架构,支持原生INT4量化,拥有256k上下文窗口,在多个基准测试中表现出色。
这是一个基于 Kimi-Linear-48B-A3B-Instruct 模型转换的 6 位量化版本,专为 Apple MLX 框架优化。该模型保留了原模型强大的指令跟随能力,同时通过量化技术显著降低了存储和计算需求,适合在 Apple 硬件上高效运行。
本模型是基于moonshotai的Kimi-Linear-48B-A3B-Instruct大语言模型,使用mlx-lm工具转换为适用于Apple Silicon芯片(MLX框架)的8位量化版本。它是一个48B参数的指令微调模型,专为遵循人类指令和对话交互而设计。
这是基于moonshotai/Kimi-Linear-48B-A3B-Instruct模型转换的4位量化版本,专为Apple MLX框架优化,提供高效的文本生成能力
Kimi Linear是一种混合线性注意力架构,在各种场景下包括短、长上下文以及强化学习扩展机制中,均优于传统的全注意力方法。它能有效解决传统注意力机制在长上下文任务中效率低下的问题,为自然语言处理等领域带来更高效的解决方案。
Kimi Linear是一种高效混合线性注意力架构,在短上下文、长上下文和强化学习场景中均优于传统全注意力方法。它通过Kimi Delta Attention (KDA)机制优化注意力计算,显著提升性能和硬件效率,特别擅长处理长达100万令牌的长上下文任务。
richardyoung
这是一个高性能的4位量化版本的Kimi K2 Instruct模型,专为使用MLX框架在Apple Silicon(M1/M2/M3/M4)Mac上运行而优化。该模型拥有6710亿参数,支持128K上下文窗口,在质量和效率之间实现了出色的平衡,是大多数实际部署的理想选择。
cs2764
本模型是基于moonshotai的Kimi-K2-Instruct-0905模型使用mlx-lm 0.28.0版本转换的MLX格式版本,采用3位量化技术,分组大小为32,平均每个权重仅占用4.002位,优化了模型在苹果设备上的运行效率。
anikifoss
这是对Moonshot AI的Kimi-K2-Instruct-0905模型的高质量量化版本,采用HQ4_K量化方法,专门优化了推理性能,支持75000上下文长度,适用于文本生成任务。
这是 moonshotai/Kimi-K2-Instruct-0905 模型的 MLX 格式转换版本,采用创新的 DQ3_K_M 动态 3 位量化技术,专门为 Apple Silicon Mac 设备优化,在保持接近 4 位量化性能的同时显著减少内存占用。
这是 moonshotai/Kimi-K2-Instruct-0905 模型的量化版本,致力于让知识为每个人所用。该项目提供了优化后的模型权重,便于在各种硬件上部署和使用。
基于moonshotai/Kimi-K2-Instruct-0905基础模型,使用改进版MLX 0.26进行动态量化的大语言模型。通过创新的动态量化策略,在保持出色性能的同时显著降低硬件需求,可在单台M3 Ultra设备上高效运行。
ubergarm
这是moonshotai/Kimi-K2-Instruct-0905模型的GGUF格式量化版本,使用ik_llama.cpp分支进行最优量化。该模型采用混合专家架构,支持中文对话和文本生成任务,经过多种量化方案优化,在保持高质量的同时显著减少内存占用。
本模型是 Kimi-K2-Instruct 模型的 MLX 格式 3 位量化版本,专为在 Apple Silicon 设备上高效运行而优化。它基于 moonshotai 的 Kimi-K2-Instruct 模型转换而来,保持了原模型的指令跟随和对话能力,同时通过量化显著减少了内存占用和提升了推理速度。
ssweens
Kimi-VL-A3B-Thinking-2506是月之暗面开发的多模态视觉语言模型,支持图像和文本的联合理解与推理,具备思维链推理能力,能够处理复杂的视觉语言任务。
Moonbridge是一个MCP服务器,允许从Claude Code、Cursor等MCP客户端并行生成多个AI编码代理(支持Kimi、Codex、OpenCode、Gemini等后端),用于同时尝试多种代码解决方案,以较低成本实现并行探索和任务执行。