初创公司Luminal完成530万美元种子轮融资,由Felicis Ventures领投,多位知名投资人参与。公司由前英特尔芯片设计师联合创立,专注于优化计算资源,提升基础设施效率,解决软件易用性对开发者的制约问题。
【AI日报】聚焦AI热点,每日推送技术趋势与创新应用。本期重点:生数科技发布Vidu Q2模型,在图生视频领域实现突破,其细微表情生成技术显著提升AI演绎的真实感。栏目持续为开发者提供前沿资讯与产品动态。
火山引擎推出炉米Lumi平台,首次支持豆包、即梦等视觉模型的Lora微调功能,助力企业高效定制独特视觉风格。在Vibe Coding时代,用户注意力稀缺,视觉审美重要性凸显。但通用模型常难精准匹配需求,开源模型效果参差不齐,平台旨在解决这些痛点,满足市场对个性化视觉创作的需求。
标题: 上海 AI 实验室推出 Lumina-DiMOO,
Luminar Neo是一款先进的图像处理程序,借助AI轻松完善创意摄影作品。
通过AI聊天立即构建网站
Lumina-Video 是一个用于视频生成的初步尝试项目,支持文本到视频的生成。
Lumina 是一款专为研究而设计的人工智能搜索引擎。
Immac
NetaYume Lumina Image 2.0 是一个文本到图像的扩散模型,经过GGUF格式量化处理,能够将文本描述转换为图像。该模型经过优化,在保持生成质量的同时减少了内存使用和提升了性能。
TildeAI
TildeOpen LLM 是一个开源的基础语言模型,专门为服务代表性不足的北欧和东欧语言而设计。该模型由欧盟委员会资助,在LUMI超级计算机上训练,拥有300亿参数,解决了19种重点语言使用者在现有AI系统中面临的性能差距问题。
BackGwa
基于Stable Diffusion XL 1.0架构的动漫风格图像生成模型,融合Animagine XL 4和Nova Anime XL的优势
Koitenshin
本模型是基于mrcuddle/Lumimaid-v0.2-12B-Pixtral转换的GGUF量化版本,是一个12B参数的多模态模型,支持图像文本到文本的生成任务。通过llama.cpp工具进行格式转换和量化优化。
neta-art
Neta Lumina 是由 Neta.art Lab 开发的高质量动漫风格图像生成模型,基于 Lumina-Image-2.0 模型微调,具备强大的理解和解读能力。
LumiOpen
Poro 2 8B Instruct 是一个基于 Llama 3.1 8B 架构的指令遵循聊天机器人模型,专为芬兰语和英语的对话式 AI 应用设计。
Yntec
LusciousMix V2.5与SXZ Luma 0.98模型的融合版本,专注于高质量风格化图像生成
Alpha-VLLM
Lumina - mGPT 2.0 是一个独立的、仅解码器的自回归模型,统一了多种图像生成任务。
sayakpaul
这是一个基于Alpha-VLLM/Lumina-Image-2.0训练的DreamBooth LoRA权重,专门用于生成毛线艺术风格的图像。
suayptalha
Luminis-phi-4是通过mergekit工具合并多个预训练语言模型得到的文本生成模型,在Open LLM排行榜上表现优异,在参数不超过15B的模型中排名第3,在参数不超过32B的模型中排名第4
calcuis
Lumina的GGUF量化版本是一个专为生成优质图像而设计的模型,支持基于文本提示生成高匹配度的图像。
Lumina-Image 2.0 是一个基于流的扩散变换器模型,拥有20亿参数,专注于文本到图像的生成任务。
Undi95
Lumimaid与Magnum v4合并的12B参数大语言模型,采用DELLA合并方法并加入针对Claude输入优化的Nemo模型
aixonlab
Lumiere Alpha 是一个专注于提升真实感的文本生成图像模型,同时保持提示的连贯性和原始FLUX.1-Dev模型的构图。
Lumina-mGPT是一个多模态自回归模型家族,擅长执行多种视觉与语言任务,特别是根据文本描述生成灵活逼真的图像。
Lumina-mGPT 是一个多模态自回归模型家族,擅长根据文本描述生成灵活逼真的图像,并能执行多种视觉和语言任务。
Lumina-mGPT 是一个多模态自回归模型家族,擅长根据文本描述生成灵活逼真的图像,并能执行多种视觉与语言任务。
Chameleon-7b是基于Lumina-mGPT仓库转换的检查点模型,旨在简化模型初始化过程。
Lumina-mGPT 是一个多模态自回归模型系列,擅长根据文本描述生成灵活逼真的图像。
bartowski
Lumimaid-v0.2-123B是基于llamacpp的imatrix量化版本的大语言模型,参数量为1230亿。该项目提供了多种量化类型,让用户可以根据硬件资源和性能需求选择合适的模型版本,在保持模型质量的同时实现高效运行。