mlx-community
基于智谱AI GLM-4.5-Air模型转换的3位深度量化权重(Deep Weight Quantization)版本,专为MLX框架优化,在保持较高性能的同时显著减少模型大小和推理资源需求
这是一个基于Qwen/Qwen3-0.6B模型转换而来的MLX格式版本,专为在Apple Silicon设备(如Mac)上高效运行而优化。它采用了4位DWQ(Dynamic Weight Quantization)量化技术,在保持良好性能的同时显著减少了模型大小和内存占用,适用于本地文本生成任务。
TheBloke
DeepSeek LLM 67B Chat AWQ是基于DeepSeek 670亿参数大语言模型的4位量化版本,采用AWQ(Activation-aware Weight Quantization)技术进行优化,在保持高质量的同时显著提升推理速度,支持中英文对话任务。