mlx-community
これはNousResearch/Hermes-4-14Bモデルを変換したMLX形式のバージョンで、複数の量子化レベル(2 - 8ビット)をサポートし、Appleチップ用に最適化された大規模言語モデルです。
これはNousResearch/Hermes-4-14Bモデルを変換した8ビット量子化MLX形式のバージョンで、Apple Silicon向けに最適化され、効率的なローカル推論をサポートしています。このモデルは140億パラメータの大規模言語モデルで、指令の遵守、推論、会話タスクに特化しています。
NousResearch
Hermes 4 14Bは、Nous ResearchによってQwen 3 14Bをベースに開発された最先端の混合モード推論モデルで、数学、コード、STEM、論理推論、創造性、および形式保持出力などの分野で顕著な向上が見られ、同時に汎用アシスタントの品質と幅広い中立的なアライメントを維持しています。
bartowski
これはNousResearch Hermes-4-405Bモデルの量化バージョンで、llama.cppを使用してimatrix量化処理を行い、さまざまなハードウェアとパフォーマンス要件を満たすための複数の量化タイプを提供し、LM Studioやllama.cppなどのプラットフォームでの実行をサポートしています。
mookiezii
Discord-Hermes-3-8Bは、NousResearch/Hermes-3-Llama-3.1-8Bをベースに微調整された大規模言語モデルで、ダイアログシーンに特化して最適化されています。精心整理されたDiscordダイアログデータセットで訓練することで、ダイアログ能力とチャットインタラクションの品質が向上しました。
DevQuasar
Hermes-3-Llama-3.1-405BはLlamaアーキテクチャに基づく大規模言語モデルで、テキスト生成タスクに特化しています。
DeepHermes-ToolCalling-Specialist-Atroposはツール呼び出しに特化したテキスト生成モデルで、自然言語処理技術を通じて効率的なタスク実行を実現することを目的としています。
Nous ResearchがAtropos強化学習フレームワークで微調整した実験的モデル。WildChatデータセットを使用し、'迷路向上'環境で訓練され、認知的フィードバックメカニズムを探求。
これは実験的な金融分析モデルで、Atropos強化学習フレームワークにより金融ファンダメンタル予測能力を最適化
Llama-3-3Bアーキテクチャをベースにした命令ファインチューニングモデルで、対話、推論、ロールプレイなどのタスクをサポートし、汎用人工知能アシスタントシナリオに適しています。
ModernBERT-largeアーキテクチャに基づいて構築された軽量テキスト拒否検出分類器で、質問応答ペアの拒否内容の識別に優れています。
Nous ResearchがAtropos強化学習フレームワークで微調整した実験的モデルで、Llama-3.1 8Bモデルの推論モードにおけるツール呼び出し性能の向上に焦点を当てています
Nous ResearchがAtropos強化学習フレームワークを使用して微調整した実験的言語モデルで、WildChatデータセットに基づいており、自己参照と認知フィードバックメカニズムの探求に焦点を当てています。
DeepHermes 3 プレビュー版はNous ResearchのフラッグシップHermesシリーズ大規模言語モデルの最新バージョンで、推論と通常応答モードを組み合わせ、注釈、判断、関数呼び出し機能を改善しました。
Llama-3-8Bを微調整した対話モデルで、複数の量子化バージョンをサポートし、チャット、推論、ロールプレイなどのタスクに適しています。
DeepHermesはLlama-3アーキテクチャを基にした80億パラメータの言語モデルプレビュー版で、深い思考と長い連鎖推論能力に特化しています。
featherless-ai-quants
これはMeta-Llama-3-8B-Instructモデルに基づくGGUF量子化バージョンで、Featherless AIチームによって最適化されています。このモデルは様々な量子化処理を経て、性能が大幅に向上し、リソース要件が削減され、さまざまなハードウェアでのデプロイと使用に適しています。
wassname
NousResearch/Llama-3.2-1Bモデルをultrachat_200kデータセットで微調整したバージョンで、対話タスクの最適化に特化しています。
lodrick-the-lafted
Copus-2x8B は Llama-3-8B アーキテクチャを基にした混合エキスパートモデルで、dreamgen/opus-v1.2-llama-3-8b と NousResearch/Meta-Llama-3-8B-Instruct の2つのファインチューニングバージョンを組み合わせています。
PsiPi
Mistral-7Bベースの視覚言語モデルで、SigLIP-400M視覚エンコーダーと関数呼び出し機能を統合、マルチモーダルインタラクションをサポート