月之暗面推出专为AI编程优化的万亿参数大模型Kimi K2.6-code-preview,已在Kimi Code上线,标志着国产编程AI进入万亿参数时代。该模型在K2.5基础上深度优化,重点提升推理深度、代码生成可靠性和多轮对话能力,思维链表现更强,代码生成更稳定,支持复杂编程任务。
月之暗面(Moonshot AI)在Kimi K2.5模型发布仅一个月后,年度经常性收入(ARR)突破1亿美元,创下国产大模型企业变现新纪录。这标志着大模型商业化进入爆发期,算力资源供不应求,企业需预付千万美元锁定供应。
中国AI公司月之暗面正考虑赴港IPO,已与中金、高盛等投行进行早期评估。凭借Kimi大模型走红,该公司加入大模型“独角兽”上市冲刺行列,为AI投资热再添热度。
月之暗面创始人杨植麟在中关村论坛上指出,大模型训练已进入由AI主导的第三阶段,实现从依赖天然数据和人工标注向高度自动化自我进化的范式转移。此前经历了依赖互联网数据与人工标注的第一阶段,以及侧重大规模数据处理的第二阶段。
Kimi k1.5 是一个通过强化学习扩展的多模态语言模型,专注于提升推理和逻辑能力。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
$6
$24
Baidu
128
$8
$240
52
Bytedance
$1.2
$3.6
4
mlx-community
该模型是 Kimi-Linear-48B-A3B-Instruct 的 MLX 格式转换版本,专为苹果 Mac Studio 等 Apple Silicon 设备优化。它是一个 480 亿参数的大型语言模型,支持指令跟随,适用于本地推理和对话任务。
Kimi-K2-Thinking 是由 mlx-community 从 moonshotai 原版模型转换而来的 MLX 格式大语言模型,采用 mlx-lm 0.28.4 版本进行转换,保留了原模型的思维链推理能力。
本模型是基于moonshotai的Kimi-Linear-48B-A3B-Instruct大语言模型,使用mlx-lm工具转换为适用于Apple Silicon芯片(MLX框架)的8位量化版本。它是一个48B参数的指令微调模型,专为遵循人类指令和对话交互而设计。
richardyoung
这是一个高性能的4位量化版本的Kimi K2 Instruct模型,专为使用MLX框架在Apple Silicon(M1/M2/M3/M4)Mac上运行而优化。该模型拥有6710亿参数,支持128K上下文窗口,在质量和效率之间实现了出色的平衡,是大多数实际部署的理想选择。
cs2764
本模型是基于moonshotai的Kimi-K2-Instruct-0905模型使用mlx-lm 0.28.0版本转换的MLX格式版本,采用3位量化技术,分组大小为32,平均每个权重仅占用4.002位,优化了模型在苹果设备上的运行效率。
inferencerlabs
基于moonshotai/Kimi-K2-Instruct-0905基础模型,使用改进版MLX 0.26进行动态量化的大语言模型。通过创新的动态量化策略,在保持出色性能的同时显著降低硬件需求,可在单台M3 Ultra设备上高效运行。
DevQuasar
Kimi - K2 - Instruct 是一个基于 moonshotai/Kimi - K2 - Instruct 模型的量化版本,旨在让知识更广泛地惠及大众。
Kimi-Dev-72B-4bit-DWQ 是一个基于 moonshotai/Kimi-Dev-72B 转换而来的 4 位量化大语言模型,适用于 MLX 框架。
Kimi-Dev-72B-4bit 是一个基于 moonshotai/Kimi-Dev-72B 转换的 4 位量化大语言模型,专为 MLX 框架优化。
Kimi-Dev-72B-5bit 是一个基于 moonshotai/Kimi-Dev-72B 转换的 5 位量化大语言模型,适用于 Apple 设备的 MLX 框架。
featherless-ai-quants
Kimi-Dev-72B是由moonshotai开发的大规模语言模型,经过GGUF量化优化,提供多种量化版本以适应不同硬件需求。
moonshotai
Kimi-Dev-72B 是一款用于软件工程任务的开源编码大语言模型,在 SWE-bench Verified 上取得了开源模型中的最优成绩。
TheBloke
Fiction Live Kimiko V2 70B 是一个基于 Llama 2 架构的大型语言模型,提供多种量化格式,适用于不同推理场景。