yamatazen
KnowledgeCore.12B は mergekit ツールを使用して統合された12Bパラメータ規模の大規模言語モデルで、PocketDoc/Dans-PersonalityEngine-V1.1.0-12b と inflatebot/MN-12B-Mag-Mell-R1 モデルを融合して作成されました。
Orihime-12B は mergekit ツールを使用して統合された事前学習済み言語モデルで、shisa-v2-mistral-nemo-12b と Himeyuri-v0.1-12B モデルを融合したものであり、英語と日本語をサポートしています。
これは24Bパラメータ規模の統合言語モデルで、TIESメソッドを用いて複数の24B規模の事前学習モデルを融合し、高品質なテキスト生成と理解能力を提供することに特化しています。
これはSLERP手法で融合された12Bパラメータ規模の多言語大規模言語モデルで、英語と日本語の処理をサポートしています。
これはMistralアーキテクチャに基づく12Bパラメータの大規模言語モデルで、SCEメソッドを使用して複数の事前学習済みモデルを統合し、ChatMLマーカーサポートを追加しました。
HMS-Slerp-12BはSLERP(球面線形補間)法でマージされた多言語チャットモデルで、英語と日本語をサポートしています。
ElvenMaid-12Bシリーズモデルを統合したChatML形式の言語モデルで、英語と日本語をサポート
ElvenMaid-12B-v2 は ChatML フォーマットに基づく12Bパラメータの言語モデルで、mergekitのTIESメソッドを使用して複数の事前学習済みモデルを統合し、英語と日本語のインタラクションをサポートしています。
ElvenMaid-12B は ChatML フォーマットに基づく12Bパラメータの言語モデルで、mergekitツールを使用して複数の事前学習済みモデルを統合し、英語と日本語のインタラクションをサポートします。
LoyalMaid-12Bは、mergekitツールを使用して複数の事前学習済み言語モデルを融合した12Bパラメータ規模の大規模言語モデルです。
Himeyuri-Magnum-12B は ChatML フォーマットに基づく多言語事前学習言語モデルで、mergekit ツールを使用して複数の12Bパラメータ規模のモデルを統合したものです。
TIES手法で融合された多言語Gemma-2モデルで、複数の専門分野の知識を統合
mergekitツールを使用して融合された8Bパラメータの言語モデルで、パススルー(Passthrough)融合方法を用いて生成
ChatMLアーキテクチャに基づく対話モデルで、mergekitツールを使用して事前訓練された言語モデルを統合して生成
SCE手法で統合された多言語ChatMLモデル、英語と日本語の対話をサポート