yamatazen
KnowledgeCore.12B 是一個通過 mergekit 工具合併的 12B 參數規模的大型語言模型,基於 PocketDoc/Dans-PersonalityEngine-V1.1.0-12b 和 inflatebot/MN-12B-Mag-Mell-R1 模型融合而成。
Orihime-12B 是一個使用 mergekit 工具合併的預訓練語言模型,基於 shisa-v2-mistral-nemo-12b 和 Himeyuri-v0.1-12B 模型融合而成,支持英文和日文。
這是一個24B參數規模的合併語言模型,採用TIES方法融合了多個24B規模的預訓練模型,專注於提供高質量的文本生成和理解能力。
這是一個通過SLERP方法融合的12B參數規模的多語言大語言模型,支持英文和日文處理。
這是一個基於Mistral架構的12B參數大語言模型,採用SCE方法合併多個預訓練模型,並添加了ChatML標記支持。
HMS-Slerp-12B 是一個採用SLERP球面線性插值法合併的多語言聊天模型,支持英語和日語。
基於ElvenMaid-12B系列模型合併的ChatML格式語言模型,支持英文和日文
ElvenMaid-12B-v2 是一個基於 ChatML 格式的 12B 參數語言模型,通過 mergekit 的 TIES 方法合併多個預訓練模型而成,支持英文和日文交互。
ElvenMaid-12B 是一個基於 ChatML 格式的 12B 參數語言模型,通過 mergekit 工具合併多個預訓練模型而成,支持英文和日文交互。
LoyalMaid-12B 是一個通過 mergekit 工具融合多個預訓練語言模型得到的12B參數規模的大語言模型。
Himeyuri-Magnum-12B 是一個基於 ChatML 格式的多語言預訓練語言模型,通過 mergekit 工具合併多個 12B 參數規模的模型而成。
基於TIES方法融合的多語言Gemma-2模型,整合了多個專業領域知識
基於mergekit工具融合的8B參數語言模型,採用直通式(Passthrough)融合方法生成
基於ChatML架構的對話模型,通過mergekit工具合併預訓練語言模型生成
基於SCE方法合併的多語言ChatML模型,支持英文和日文對話