大华股份在同行拼参数时,将6B视觉模型塞进16GB显存边缘盒子,Q3净利增44%至10.6亿元。其2019年起用Transformer自洗数据、自标注,五年后"1+2"体系发展出V/M/L系列模型,实现高效边缘AI部署。
阿里巴巴开源Z-Image图像模型,支持中英双语文字渲染,仅6B参数实现高效图像生成与编辑,视觉质量优秀。该模型由通义实验室开发,聚焦AI技术趋势,助力开发者洞悉创新应用。
阿里通义实验室推出Z-Image-Turbo模型,仅6B参数却媲美20B+闭源模型。在RTX4090上2.3秒完成1024×1024图像渲染,显存占用13GB。支持8步采样输出印刷级画质,兼容3060 6G等消费级显卡,显存需求最高16G。模型精准理解复杂中文提示,如“夜晚的阳光”等抽象描述。
阿里巴巴开源Z-Image图像生成模型,仅6B参数实现高效生成与编辑,视觉质量接近20B级别商业模型。该模型采用单流DiT架构,生成速度快、资源占用低,有望推动AI图像工具普及消费级应用。
高效的6B模型演示
inclusionAI
Ming-flash-omni 预览版是基于 Ling-Flash-2.0 稀疏专家混合(MoE)架构构建的多模态大模型,总参数达100B,每个token仅激活6B参数。该模型在Ming-Omni基础上进行了全面升级,在多模态理解和生成方面有显著提升,特别是在语音识别、图像生成和分割编辑方面表现突出。
DavidAU
这是一个基于Qwen3架构的6B参数大语言模型,专门针对恐怖主题进行微调,能够生成暗黑、恐怖风格的文本,同时在逻辑推理任务中表现出色。
cof139
这是一个基于GPT-OSS架构的6B参数混合专家模型,经过剪枝优化仅保留7个专家,采用Q4_K_M量化格式的GGUF版本。该模型专注于高效推理和文本生成任务,通过剪枝和量化技术实现了更好的计算效率。
NikolayKozloff
这是一个基于GPT架构的6B参数规模的专业化混合专家模型,经过剪枝优化仅保留7个专家,并转换为GGUF格式的量化版本。模型采用Q8_0量化,在保持性能的同时显著减少内存占用和计算需求。
包含44种混合专家(MOE)量化模型的仓库,适用于多种编程语言的编码任务,参数规模从6B到60B。
OpenGVLab
InternVideo2是一个多模态视频理解模型,具有6B参数规模,专注于视频内容分析和理解任务。
prince-canuma
全球首个6B参数的Llama-3基础模型,通过降级循环技术从Meta-Llama-3-8B衍生而来的未训练版本
TheBloke
Yi 6B是由01-ai开发的大型语言模型,拥有60亿参数,适用于多种文本生成任务。
Deci
DeciLM 6B-指令模型是一款专为短格式指令跟随设计的英语语言模型,基于DeciLM 6B通过LoRA微调技术训练而成
DeciLM 6B是由Deci开发的57亿参数仅解码器文本生成模型,采用可变分组查询注意力技术,在性能和计算效率之间实现最佳平衡。该模型在OpenOrca数据集上进行了指令微调,支持4096个标记的上下文窗口,在吞吐量上最高可达Llama 2 7B的15倍。
NumbersStation
NSQL-6B是一个专为SQL生成任务设计的自回归大模型基座,基于Salesforce的CodeGen-Multi 6B模型进行预训练和微调。
togethercomputer
GPT-JT是基于GPT-J(6B)微调的大语言模型,采用UL2训练目标,在分类任务上表现优异
shailja
VeriGen是基于CodeGen-multi-16B微调的6B参数模型,专门用于生成Verilog硬件描述语言代码。
Salesforce
CodeGen是用于程序合成的自回归语言模型系列,CodeGen-Mono 6B是基于Python编程语言数据集进一步预训练的6B参数模型。
facebook
InCoder 6B 是一个具有60亿参数的仅解码器Transformer模型,专门针对代码生成任务进行训练。该模型支持从左到右的代码生成以及代码插入和填充功能,在28种编程语言的代码库上训练,主要包含Python和JavaScript。
baffo32
基于GPT-J 6B微调的Python代码生成模型,专注于Python编程辅助
flyhero
GPT-J 6B是基于GPT-3架构设计的Transformer模型,具有60亿参数,支持文本生成任务。
VietAI
这是一个基于GPT-J架构的6B参数越南语因果语言模型,专门针对越南新闻内容进行训练。
NovelAI
基于GPT-J 6B的日语因果语言模型,在日本网络小说数据集上微调
NbAiLab
基于GPT-J 6B的挪威语微调版本,60亿参数规模的Transformer模型