MaziyarPanahi
abacusai/Llama-3-Smaug-8Bを基にしたGGUFフォーマットの量子化モデルで、2-8ビットの量子化レベルをサポートし、テキスト生成タスクに適しています
abacusai
Meta Llama 3をベースに構築された最適化モデルで、マルチターン対話シナリオのパフォーマンス向上を図っています
平均スコア80%を初めて突破したオープンソース大規模言語モデル。MoMo-72B-lora-1.8.7-DPOを微調整し、革新的なDPO-Positive技術で選好学習を最適化
TheProfessorはmergekitツールを使用して複数の事前学習済み言語モデルを統合したハイブリッドモデルで、対話交流、論理的推論、科学研究、医学知識、数学能力に特化しています。
jondurbin/bagel-34b-v0.2をファインチューニングした大規模言語モデルで、新たなDPO-Positive(DPOP)技術を用いて選好学習を最適化