deepcogito
Cogito v2.1是经过指令微调的6710亿参数混合专家生成式模型,采用开放许可发布,支持商业用途。该模型能有效解决复杂的推理和指令遵循问题,支持30多种语言和128k上下文长度。
bartowski
这是deepcogito的cogito-v2-preview-llama-109B-MoE模型的量化版本,使用llama.cpp进行量化处理,提供多种量化类型以适应不同硬件条件。该模型是一个109B参数的混合专家(MoE)大语言模型,经过优化后可在消费级硬件上运行。
这是对deepcogito的cogito-v2-preview-llama-70B模型进行量化处理的版本,使用Llama.cpp的imatrix量化技术,在保持较好性能的同时显著减少模型存储和计算资源需求,适用于资源受限的环境。
Cogito v2是经过指令微调的生成式混合推理模型,采用迭代蒸馏与放大训练方法,在编码、STEM、指令遵循等方面表现出色,支持超30种语言和128k上下文长度。
Cogito v2是经过指令调优的生成式大语言模型,采用混合专家架构,具有1090亿参数。该模型支持多语言处理、长上下文推理,在编码、STEM等领域表现出色,支持商业用途。
Cogito v2是基于指令调优的生成式大语言模型,具备混合推理能力,支持128k上下文长度和多语言处理。该模型采用迭代蒸馏与放大(IDA)训练策略,在编码、STEM、指令遵循等任务上表现优异。
Cogito v2是基于Llama-3.1-70B的指令调优生成式模型,具备混合推理能力,支持多语言和长上下文,在编码、STEM等领域表现出色。采用迭代蒸馏与放大训练策略,可用于商业用途。
tensorblock
基于Llama架构的3B参数语言模型,提供多种量化版本以适应不同硬件需求
cortexso
DeepCogito推出的通过迭代蒸馏与放大(IDA)训练的强大混合推理模型,在编程、STEM、多语言和智能体应用场景中表现卓越。
mlx-community
这是一个基于Llama架构的70B参数大语言模型,经过6位量化处理,适用于文本生成任务。