Moonshot AI推出Kosong,作为LLM抽象层解决多模型工具交互的技术栈维护难题。它统一消息结构、支持异步工具编排和可插拔聊天提供商,避免业务逻辑硬编码,简化智能体开发。该Python库作为代理逻辑与LLM提供商间的中间层,是Kimi CLI的核心驱动组件。
国产团队Moonshot AI发布Kimi Linear架构技术报告,提出可替代完全注意力机制的混合线性架构。该架构在速度、内存效率和长上下文处理三方面实现突破,显著降低KV缓存使用,兼具高效与性能优势,被誉为智能体时代注意力机制新起点。
Moonshot AI旗下智能助手Kimi推出Agent会员服务,为早期打赏用户提供福利:订阅会员后,打赏金额可全额转换为会员时长。例如,订阅一个月可获赠九个月额外时长,回馈用户支持。建议有打赏记录的用户尽快查看App详情,机会有限。
Moonshot AI宣布Kimi K2模型输出速度大幅提升,kimi-k2-turbo-preview模型达每秒60个Tokens,最高100个Tokens,优化用户体验。目前仍享5折优惠,每百万Tokens输入价格(缓存命中)2.00元,缓存未命中价格未提及。
Kimi 视觉模型可理解图片内容,包括文字、颜色和物体形状等。
全球首个20万汉字智能助手
月之暗面AI助手,您的私人AI伙伴
moonshotai
$4.1
输入tokens/百万
$16.56
输出tokens/百万
128k
上下文长度
moonshot
$0.5
-
8k
$1
$8
32k
DevQuasar
本项目基于 moonshotai/Kimi-K2-Thinking 基础模型,通过自定义反量化脚本将原始的INT4模型转换为更高质量的文本生成模型,致力于让知识为每个人所用。
mlx-community
Kimi-K2-Thinking 是由 mlx-community 从 moonshotai 原版模型转换而来的 MLX 格式大语言模型,采用 mlx-lm 0.28.4 版本进行转换,保留了原模型的思维链推理能力。
这是一个基于Moonshot AI技术的量化版本模型,专注于视觉语言理解与生成任务,致力于降低知识获取门槛,让知识为每个人所用。
Kimi K2 Thinking 是月之暗面(Moonshot AI)开发的最新一代开源思维模型,具有强大的深度推理能力和工具调用功能。该模型采用混合专家架构,支持原生INT4量化,拥有256k上下文窗口,在多个基准测试中表现出色。
这是基于moonshotai/Kimi-Linear-48B-A3B-Instruct模型转换的4位量化版本,专为Apple MLX框架优化,提供高效的文本生成能力
Kimi Linear是一种混合线性注意力架构,在各种场景下包括短、长上下文以及强化学习扩展机制中,均优于传统的全注意力方法。它能有效解决传统注意力机制在长上下文任务中效率低下的问题,为自然语言处理等领域带来更高效的解决方案。
Kimi Linear是一种高效混合线性注意力架构,在短上下文、长上下文和强化学习场景中均优于传统全注意力方法。它通过Kimi Delta Attention (KDA)机制优化注意力计算,显著提升性能和硬件效率,特别擅长处理长达100万令牌的长上下文任务。
anikifoss
这是对Moonshot AI的Kimi-K2-Instruct-0905模型的高质量量化版本,采用HQ4_K量化方法,专门优化了推理性能,支持75000上下文长度,适用于文本生成任务。
这是 moonshotai/Kimi-K2-Instruct-0905 模型的 MLX 格式转换版本,采用创新的 DQ3_K_M 动态 3 位量化技术,专门为 Apple Silicon Mac 设备优化,在保持接近 4 位量化性能的同时显著减少内存占用。
这是 moonshotai/Kimi-K2-Instruct-0905 模型的量化版本,致力于让知识为每个人所用。该项目提供了优化后的模型权重,便于在各种硬件上部署和使用。
inferencerlabs
基于moonshotai/Kimi-K2-Instruct-0905基础模型,使用改进版MLX 0.26进行动态量化的大语言模型。通过创新的动态量化策略,在保持出色性能的同时显著降低硬件需求,可在单台M3 Ultra设备上高效运行。
ubergarm
这是moonshotai/Kimi-K2-Instruct-0905模型的GGUF格式量化版本,使用ik_llama.cpp分支进行最优量化。该模型采用混合专家架构,支持中文对话和文本生成任务,经过多种量化方案优化,在保持高质量的同时显著减少内存占用。
Kimi-K2 Dynamic MLX是基于moonshotai/Kimi-K2-Instruct模型构建的文本生成项目,采用优化后的MLX库实现高效量化性能。该模型在单台M3 Ultra 512GB RAM机器上运行,支持多种量化方式,在测试中展现出优秀的困惑度指标。
Kimi - K2 - Instruct 是一个基于 moonshotai/Kimi - K2 - Instruct 模型的量化版本,旨在让知识更广泛地惠及大众。
Kimi-Dev-72B-8bit 是基于 moonshotai/Kimi-Dev-72B 转换的 8 位量化版本,适用于 MLX 框架的文本生成模型。
Kimi-Dev-72B-4bit-DWQ 是一个基于 moonshotai/Kimi-Dev-72B 转换而来的 4 位量化大语言模型,适用于 MLX 框架。
Kimi K2 是一款先进的混合专家(MoE)语言模型,拥有 320 亿激活参数和 1 万亿总参数,针对代理能力进行了优化。
Kimi-K2-Instruct-4bit 是一个基于 moonshotai/Kimi-K2-Instruct 转换而来的 4bit 量化模型,适用于 MLX 框架。
Kimi-Dev-72B-4bit 是一个基于 moonshotai/Kimi-Dev-72B 转换的 4 位量化大语言模型,专为 MLX 框架优化。
Kimi-Dev-72B-5bit 是一个基于 moonshotai/Kimi-Dev-72B 转换的 5 位量化大语言模型,适用于 Apple 设备的 MLX 框架。