NikolayKozloff
UserLM-8b-Q8_0-GGUF 是基于微软 UserLM-8b 模型转换的 GGUF 格式版本,专门针对用户对话场景优化的大语言模型。该模型采用 8 位量化技术,在保持性能的同时显著减小了模型体积,便于在各种硬件上部署运行。
这是Google Gemma 3 270M模型的GGUF格式转换版本,由NikolayKozloff转换。该模型是一个27亿参数的文本生成模型,支持高效的推理部署。
这是一个基于GPT架构的6B参数规模的专业化混合专家模型,经过剪枝优化仅保留7个专家,并转换为GGUF格式的量化版本。模型采用Q8_0量化,在保持性能的同时显著减少内存占用和计算需求。
该模型是基于PocketDoc/Dans-PersonalityEngine-V1.3.0-12b转换的GGUF格式模型,支持多种语言和任务,适用于通用目的、角色扮演、故事创作等场景。
这是一个基于PocketDoc/Dans-PersonalityEngine-V1.3.0-12b转换的GGUF格式模型,适用于文本生成任务。
MedGemma-4B-it-Q8_0-GGUF 是基于 google/medgemma-4b-it 转换而来的 GGUF 格式模型,专为医疗领域的图像文本到文本任务设计。
该模型是基于MYZY-AI/Muyan-TTS-SFT转换的GGUF格式文本转语音模型,支持中文语音合成。
Muyan-TTS是一个文本转语音(TTS)模型,已转换为GGUF格式以便与llama.cpp配合使用。
这是一个基于kyutai/helium-1-2b转换的GGUF格式模型,支持多种欧洲语言。
该模型是基于IBM Granite-3.3-8B指令微调模型转换而来的GGUF格式模型,适用于文本生成任务。
这是Google Gemma 3B模型的GGUF量化版本,适用于本地部署和推理。
这是Google Gemma 3B模型的GGUF量化版本,适用于本地推理,支持文本生成任务。
这是由google/gemma-3-12b-it转换而来的GGUF格式模型,适用于llama.cpp框架。
该模型是从google/gemma-3-12b-it转换而来的GGUF格式模型,适用于llama.cpp框架。
该模型是基于DeepSeek-R1-ReDistill-Qwen-7B-v1.1转换的GGUF格式模型,适用于文本生成任务。
基于AtlaAI/Selene-1-Mini-Llama-3.1-8B转换的GGUF格式模型,适用于文本生成任务,支持多种欧洲语言。
这是一个基于ozone-ai/llama-3.1-0x-mini转换的GGUF格式模型,适用于llama.cpp框架。
该模型是从HKUST-Audio/Llasa-1B转换而来的GGUF格式模型,主要用于文本转语音任务。
AlekseyCalvin
基于FLUX.1开发版调整的LoRA模型,用于生成早期苏联先锋派木刻版画风格图像