NikolayKozloff
UserLM-8b-Q8_0-GGUFは、マイクロソフトのUserLM-8bモデルを変換したGGUF形式のバージョンで、ユーザー会話シナリオに特化して最適化された大規模言語モデルです。このモデルは8ビット量子化技術を採用しており、性能を維持しながらモデルサイズを大幅に縮小し、さまざまなハードウェアでのデプロイと実行を容易にしています。
これはGoogle Gemma 3 270MモデルのGGUF形式への変換バージョンで、NikolayKozloffによって変換されました。このモデルは27億パラメータのテキスト生成モデルで、効率的な推論デプロイをサポートします。
これはGPTアーキテクチャに基づく6Bパラメータ規模の専門化された混合専門家モデルで、剪定最適化を行い、7人の専門家のみを残し、GGUF形式の量子化バージョンに変換されています。モデルはQ8_0量子化を採用し、性能を維持しながらメモリ使用量と計算要件を大幅に削減します。
これはPocketDoc/Dans-PersonalityEngine-V1.3.0-12bを変換したGGUF形式モデルで、テキスト生成タスクに適しています。
このモデルはPocketDoc/Dans-PersonalityEngine-V1.3.0-12bを変換したGGUF形式モデルで、多言語・多タスクに対応し、汎用目的、ロールプレイ、ストーリー創作などのシナリオに適しています。
MedGemma-4B-it-Q8_0-GGUF は google/medgemma-4b-it を基に変換された GGUF フォーマットのモデルで、医療分野の画像テキストからテキストへのタスク専用に設計されています。
このモデルはMYZY-AI/Muyan-TTS-SFTから変換されたGGUF形式のテキスト音声変換モデルで、中国語音声合成をサポートしています。
Muyan-TTSはテキスト音声変換(TTS)モデルで、llama.cppで使用できるようGGUF形式に変換されています。
これはkyutai/helium-1-2bを変換したGGUF形式のモデルで、複数のヨーロッパ言語をサポートしています。
このモデルはIBM Granite-3.3-8B命令微調整モデルから変換されたGGUF形式のモデルで、テキスト生成タスクに適しています。
これはGoogle Gemma 3BモデルのGGUF量子化バージョンで、ローカルデプロイと推論に適しています。
これはGoogle Gemma 3BモデルのGGUF量子化バージョンで、ローカル推論に適しており、テキスト生成タスクをサポートします。
これはgoogle/gemma-3-12b-itから変換されたGGUF形式モデルで、llama.cppフレームワークに適しています。
このモデルはgoogle/gemma-3-12b-itから変換されたGGUF形式モデルで、llama.cppフレームワークに適しています。
これはGoogle Gemma 3BモデルのGGUF量子化バージョンで、ローカル展開と推論に適しています。
このモデルはDeepSeek-R1-ReDistill-Qwen-7B-v1.1を変換したGGUF形式モデルで、テキスト生成タスクに適しています。
AtlaAI/Selene-1-Mini-Llama-3.1-8Bを変換したGGUF形式モデルで、テキスト生成タスクに適しており、複数のヨーロッパ言語をサポートしています。
これはozone-ai/llama-3.1-0x-miniから変換されたGGUF形式モデルで、llama.cppフレームワークに適しています。
このモデルはHKUST-Audio/Llasa-1Bから変換されたGGUF形式のモデルで、主にテキストから音声への変換タスクに使用されます。
AlekseyCalvin
FLUX.1開発版を調整したLoRAモデルで、初期ソビエト前衛派木版画スタイルの画像生成用