yamatazen
KnowledgeCore.12B 是一个通过 mergekit 工具合并的 12B 参数规模的大型语言模型,基于 PocketDoc/Dans-PersonalityEngine-V1.1.0-12b 和 inflatebot/MN-12B-Mag-Mell-R1 模型融合而成。
Orihime-12B 是一个使用 mergekit 工具合并的预训练语言模型,基于 shisa-v2-mistral-nemo-12b 和 Himeyuri-v0.1-12B 模型融合而成,支持英文和日文。
这是一个24B参数规模的合并语言模型,采用TIES方法融合了多个24B规模的预训练模型,专注于提供高质量的文本生成和理解能力。
这是一个通过SLERP方法融合的12B参数规模的多语言大语言模型,支持英文和日文处理。
这是一个基于Mistral架构的12B参数大语言模型,采用SCE方法合并多个预训练模型,并添加了ChatML标记支持。
HMS-Slerp-12B 是一个采用SLERP球面线性插值法合并的多语言聊天模型,支持英语和日语。
基于ElvenMaid-12B系列模型合并的ChatML格式语言模型,支持英文和日文
ElvenMaid-12B-v2 是一个基于 ChatML 格式的 12B 参数语言模型,通过 mergekit 的 TIES 方法合并多个预训练模型而成,支持英文和日文交互。
ElvenMaid-12B 是一个基于 ChatML 格式的 12B 参数语言模型,通过 mergekit 工具合并多个预训练模型而成,支持英文和日文交互。
LoyalMaid-12B 是一个通过 mergekit 工具融合多个预训练语言模型得到的12B参数规模的大语言模型。
Himeyuri-Magnum-12B 是一个基于 ChatML 格式的多语言预训练语言模型,通过 mergekit 工具合并多个 12B 参数规模的模型而成。
基于TIES方法融合的多语言Gemma-2模型,整合了多个专业领域知识
基于mergekit工具融合的8B参数语言模型,采用直通式(Passthrough)融合方法生成
基于ChatML架构的对话模型,通过mergekit工具合并预训练语言模型生成
基于SCE方法合并的多语言ChatML模型,支持英文和日文对话