大華股份在同行拼參數時,將6B視覺模型塞進16GB顯存邊緣盒子,Q3淨利增44%至10.6億元。其2019年起用Transformer自洗數據、自標註,五年後"1+2"體系發展出V/M/L系列模型,實現高效邊緣AI部署。
阿里巴巴開源Z-Image圖像模型,支持中英雙語文字渲染,僅6B參數實現高效圖像生成與編輯,視覺質量優秀。該模型由通義實驗室開發,聚焦AI技術趨勢,助力開發者洞悉創新應用。
阿里通義實驗室推出Z-Image-Turbo模型,僅6B參數卻媲美20B+閉源模型。在RTX4090上2.3秒完成1024×1024圖像渲染,顯存佔用13GB。支持8步採樣輸出印刷級畫質,兼容3060 6G等消費級顯卡,顯存需求最高16G。模型精準理解複雜中文提示,如“夜晚的陽光”等抽象描述。
阿里巴巴開源Z-Image圖像生成模型,僅6B參數實現高效生成與編輯,視覺質量接近20B級別商業模型。該模型採用單流DiT架構,生成速度快、資源佔用低,有望推動AI圖像工具普及消費級應用。
高效的6B模型演示
inclusionAI
Ming-flash-omni 預覽版是基於 Ling-Flash-2.0 稀疏專家混合(MoE)架構構建的多模態大模型,總參數達100B,每個token僅激活6B參數。該模型在Ming-Omni基礎上進行了全面升級,在多模態理解和生成方面有顯著提升,特別是在語音識別、圖像生成和分割編輯方面表現突出。
DavidAU
這是一個基於Qwen3架構的6B參數大語言模型,專門針對恐怖主題進行微調,能夠生成暗黑、恐怖風格的文本,同時在邏輯推理任務中表現出色。
cof139
這是一個基於GPT-OSS架構的6B參數混合專家模型,經過剪枝優化僅保留7個專家,採用Q4_K_M量化格式的GGUF版本。該模型專注於高效推理和文本生成任務,通過剪枝和量化技術實現了更好的計算效率。
NikolayKozloff
這是一個基於GPT架構的6B參數規模的專業化混合專家模型,經過剪枝優化僅保留7個專家,並轉換為GGUF格式的量化版本。模型採用Q8_0量化,在保持性能的同時顯著減少內存佔用和計算需求。
包含44種混合專家(MOE)量化模型的倉庫,適用於多種編程語言的編碼任務,參數規模從6B到60B。
OpenGVLab
InternVideo2是一個多模態視頻理解模型,具有6B參數規模,專注於視頻內容分析和理解任務。
prince-canuma
全球首個6B參數的Llama-3基礎模型,通過降級循環技術從Meta-Llama-3-8B衍生而來的未訓練版本
TheBloke
Yi 6B是由01-ai開發的大型語言模型,擁有60億參數,適用於多種文本生成任務。
Deci
DeciLM 6B-指令模型是一款專為短格式指令跟隨設計的英語語言模型,基於DeciLM 6B通過LoRA微調技術訓練而成
DeciLM 6B是由Deci開發的57億參數僅解碼器文本生成模型,採用可變分組查詢注意力技術,在性能和計算效率之間實現最佳平衡。該模型在OpenOrca數據集上進行了指令微調,支持4096個標記的上下文窗口,在吞吐量上最高可達Llama 2 7B的15倍。
NumbersStation
NSQL-6B是一個專為SQL生成任務設計的自迴歸大模型基座,基於Salesforce的CodeGen-Multi 6B模型進行預訓練和微調。
togethercomputer
GPT-JT是基於GPT-J(6B)微調的大語言模型,採用UL2訓練目標,在分類任務上表現優異
shailja
VeriGen是基於CodeGen-multi-16B微調的6B參數模型,專門用於生成Verilog硬件描述語言代碼。
Salesforce
CodeGen是用於程序合成的自迴歸語言模型系列,CodeGen-Mono 6B是基於Python編程語言數據集進一步預訓練的6B參數模型。
facebook
InCoder 6B 是一個具有60億參數的僅解碼器Transformer模型,專門針對代碼生成任務進行訓練。該模型支持從左到右的代碼生成以及代碼插入和填充功能,在28種編程語言的代碼庫上訓練,主要包含Python和JavaScript。
VietAI
這是一個基於GPT-J架構的6B參數越南語因果語言模型,專門針對越南新聞內容進行訓練。
flyhero
GPT-J 6B是基於GPT-3架構設計的Transformer模型,具有60億參數,支持文本生成任務。
baffo32
基於GPT-J 6B微調的Python代碼生成模型,專注於Python編程輔助
KoboldAI
基於GPT-J 6B微調的科幻奇幻題材語言模型,擴展了20%多題材內容
NbAiLab
基於GPT-J 6B的挪威語微調版本,60億參數規模的Transformer模型