NikolayKozloff
UserLM-8b-Q8_0-GGUF 是基於微軟 UserLM-8b 模型轉換的 GGUF 格式版本,專門針對用戶對話場景優化的大語言模型。該模型採用 8 位量化技術,在保持性能的同時顯著減小了模型體積,便於在各種硬件上部署運行。
這是Google Gemma 3 270M模型的GGUF格式轉換版本,由NikolayKozloff轉換。該模型是一個27億參數的文本生成模型,支持高效的推理部署。
這是一個基於GPT架構的6B參數規模的專業化混合專家模型,經過剪枝優化僅保留7個專家,並轉換為GGUF格式的量化版本。模型採用Q8_0量化,在保持性能的同時顯著減少內存佔用和計算需求。
該模型是基於PocketDoc/Dans-PersonalityEngine-V1.3.0-12b轉換的GGUF格式模型,支持多種語言和任務,適用於通用目的、角色扮演、故事創作等場景。
這是一個基於PocketDoc/Dans-PersonalityEngine-V1.3.0-12b轉換的GGUF格式模型,適用於文本生成任務。
MedGemma-4B-it-Q8_0-GGUF 是基於 google/medgemma-4b-it 轉換而來的 GGUF 格式模型,專為醫療領域的圖像文本到文本任務設計。
該模型是基於MYZY-AI/Muyan-TTS-SFT轉換的GGUF格式文本轉語音模型,支持中文語音合成。
Muyan-TTS是一個文本轉語音(TTS)模型,已轉換為GGUF格式以便與llama.cpp配合使用。
這是一個基於kyutai/helium-1-2b轉換的GGUF格式模型,支持多種歐洲語言。
該模型是基於IBM Granite-3.3-8B指令微調模型轉換而來的GGUF格式模型,適用於文本生成任務。
這是Google Gemma 3B模型的GGUF量化版本,適用於本地部署和推理。
這是Google Gemma 3B模型的GGUF量化版本,適用於本地推理,支持文本生成任務。
這是由google/gemma-3-12b-it轉換而來的GGUF格式模型,適用於llama.cpp框架。
該模型是從google/gemma-3-12b-it轉換而來的GGUF格式模型,適用於llama.cpp框架。
該模型是基於DeepSeek-R1-ReDistill-Qwen-7B-v1.1轉換的GGUF格式模型,適用於文本生成任務。
基於AtlaAI/Selene-1-Mini-Llama-3.1-8B轉換的GGUF格式模型,適用於文本生成任務,支持多種歐洲語言。
這是一個基於ozone-ai/llama-3.1-0x-mini轉換的GGUF格式模型,適用於llama.cpp框架。
該模型是從HKUST-Audio/Llasa-1B轉換而來的GGUF格式模型,主要用於文本轉語音任務。
AlekseyCalvin
基於FLUX.1開發版調整的LoRA模型,用於生成早期蘇聯先鋒派木刻版畫風格圖像