MaziyarPanahi
基于abacusai/Llama-3-Smaug-8B的GGUF格式量化模型,支持2-8比特量化级别,适用于文本生成任务
abacusai
基于Meta Llama 3构建的优化模型,针对多轮对话场景提升性能
首个平均分突破80%的开源大语言模型,基于MoMo-72B-lora-1.8.7-DPO微调,采用创新的DPO-Positive技术优化偏好学习
TheProfessor是通过mergekit工具整合多个预训练语言模型而成的混合模型,专注于对话交流、逻辑推理、科学研究、医学知识和数学能力。
基于jondurbin/bagel-34b-v0.2微调的大语言模型,采用新型DPO-Positive(DPOP)技术优化偏好学习