Kimi推出基于Google Nano Banana Pro模型的幻灯片生成器,提供48小时免费试用。核心功能“Agentic Slides”可自动将PDF、图片等文档转换为演示文稿,支持浏览器内直接编辑。
在2025开放原子开发者大会上,倪光南院士指出,中国已成为全球开源AI大模型最大提供者,Qwen、DeepSeek和Kimi等模型在国际评估中表现卓越。他强调开源技术正推动全球信息技术发展,尤其在AI领域,顺应时代需求,展现创新活力。
国产Kimi K2 Thinking模型成功接入全球知名AI搜索应用Perplexity,成为唯一接入该平台的国产模型。此次与OpenAI GPT-5.1同期接入,彰显国产AI技术国际竞争力。Perplexity作为2022年成立的对话式"答案引擎",已成长为全球估值最高AI搜索应用,革新了用户获取信息方式。
Moonshot AI推出Kosong,作为LLM抽象层解决多模型工具交互的技术栈维护难题。它统一消息结构、支持异步工具编排和可插拔聊天提供商,避免业务逻辑硬编码,简化智能体开发。该Python库作为代理逻辑与LLM提供商间的中间层,是Kimi CLI的核心驱动组件。
Kimi-Audio 是一个开源音频基础模型,擅长音频理解与生成。
Kimi k1.5 是一个通过强化学习扩展的多模态语言模型,专注于提升推理和逻辑能力。
Kimi 视觉模型可理解图片内容,包括文字、颜色和物体形状等。
基于强化学习技术的视觉思考模型,理科测试行业领先
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$6
$24
Baidu
128
$2
$20
Bytedance
$1.2
$3.6
4
$3.9
$15.2
64
inferencerlabs
Kimi - K2 - Thinking 3.825bit MLX 是一款用于文本生成的量化模型,通过不同的量化方式在测试中取得不同的困惑度表现,其中q3.825bit量化能达到1.256的困惑度。
DevQuasar
本项目基于 moonshotai/Kimi-K2-Thinking 基础模型,通过自定义反量化脚本将原始的INT4模型转换为更高质量的文本生成模型,致力于让知识为每个人所用。
mlx-community
Kimi-K2-Thinking 是由 mlx-community 从 moonshotai 原版模型转换而来的 MLX 格式大语言模型,采用 mlx-lm 0.28.4 版本进行转换,保留了原模型的思维链推理能力。
moonshotai
Kimi K2 Thinking 是月之暗面(Moonshot AI)开发的最新一代开源思维模型,具有强大的深度推理能力和工具调用功能。该模型采用混合专家架构,支持原生INT4量化,拥有256k上下文窗口,在多个基准测试中表现出色。
这是一个基于 Kimi-Linear-48B-A3B-Instruct 模型转换的 6 位量化版本,专为 Apple MLX 框架优化。该模型保留了原模型强大的指令跟随能力,同时通过量化技术显著降低了存储和计算需求,适合在 Apple 硬件上高效运行。
这是基于moonshotai/Kimi-Linear-48B-A3B-Instruct模型转换的4位量化版本,专为Apple MLX框架优化,提供高效的文本生成能力
richardyoung
这是一个高性能的4位量化版本的Kimi K2 Instruct模型,专为使用MLX框架在Apple Silicon(M1/M2/M3/M4)Mac上运行而优化。该模型拥有6710亿参数,支持128K上下文窗口,在质量和效率之间实现了出色的平衡,是大多数实际部署的理想选择。
cs2764
本模型是基于moonshotai的Kimi-K2-Instruct-0905模型使用mlx-lm 0.28.0版本转换的MLX格式版本,采用3位量化技术,分组大小为32,平均每个权重仅占用4.002位,优化了模型在苹果设备上的运行效率。
anikifoss
这是对Moonshot AI的Kimi-K2-Instruct-0905模型的高质量量化版本,采用HQ4_K量化方法,专门优化了推理性能,支持75000上下文长度,适用于文本生成任务。
这是 moonshotai/Kimi-K2-Instruct-0905 模型的 MLX 格式转换版本,采用创新的 DQ3_K_M 动态 3 位量化技术,专门为 Apple Silicon Mac 设备优化,在保持接近 4 位量化性能的同时显著减少内存占用。
这是 moonshotai/Kimi-K2-Instruct-0905 模型的量化版本,致力于让知识为每个人所用。该项目提供了优化后的模型权重,便于在各种硬件上部署和使用。
基于moonshotai/Kimi-K2-Instruct-0905基础模型,使用改进版MLX 0.26进行动态量化的大语言模型。通过创新的动态量化策略,在保持出色性能的同时显著降低硬件需求,可在单台M3 Ultra设备上高效运行。
ubergarm
这是moonshotai/Kimi-K2-Instruct-0905模型的GGUF格式量化版本,使用ik_llama.cpp分支进行最优量化。该模型采用混合专家架构,支持中文对话和文本生成任务,经过多种量化方案优化,在保持高质量的同时显著减少内存占用。
ssweens
Kimi-VL-A3B-Thinking-2506是月之暗面开发的多模态视觉语言模型,支持图像和文本的联合理解与推理,具备思维链推理能力,能够处理复杂的视觉语言任务。
AI-MO
Kimina-Prover-Distill-0.6B是由Project Numina和Kimi团队开发的定理证明模型,专注于Lean 4中的竞赛风格问题解决能力。它是Kimina-Prover-72B模型的蒸馏版本,在MiniF2F-test上达到了68.85%的准确率。
Kimi-K2 Dynamic MLX是基于moonshotai/Kimi-K2-Instruct模型构建的文本生成项目,采用优化后的MLX库实现高效量化性能。该模型在单台M3 Ultra 512GB RAM机器上运行,支持多种量化方式,在测试中展现出优秀的困惑度指标。
Kimi - K2 - Instruct 是一个基于 moonshotai/Kimi - K2 - Instruct 模型的量化版本,旨在让知识更广泛地惠及大众。
prithivMLmods
由 Project Numina 和 Kimi 团队开发的定理证明模型,专注于 Lean 4 中的竞赛风格问题解决能力。
Kimi-Dev-72B-8bit 是基于 moonshotai/Kimi-Dev-72B 转换的 8 位量化版本,适用于 MLX 框架的文本生成模型。
Kimi-Dev-72B-4bit-DWQ 是一个基于 moonshotai/Kimi-Dev-72B 转换而来的 4 位量化大语言模型,适用于 MLX 框架。