MaziyarPanahi
基於abacusai/Llama-3-Smaug-8B的GGUF格式量化模型,支持2-8比特量化級別,適用於文本生成任務
abacusai
基於Meta Llama 3構建的優化模型,針對多輪對話場景提升性能
首個平均分突破80%的開源大語言模型,基於MoMo-72B-lora-1.8.7-DPO微調,採用創新的DPO-Positive技術優化偏好學習
TheProfessor是通過mergekit工具整合多個預訓練語言模型而成的混合模型,專注於對話交流、邏輯推理、科學研究、醫學知識和數學能力。
基於jondurbin/bagel-34b-v0.2微調的大語言模型,採用新型DPO-Positive(DPOP)技術優化偏好學習