初創公司Luminal完成530萬美元種子輪融資,由Felicis Ventures領投,多位知名投資人蔘與。公司由前英特爾芯片設計師聯合創立,專注於優化計算資源,提升基礎設施效率,解決軟件易用性對開發者的制約問題。
【AI日報】聚焦AI熱點,每日推送技術趨勢與創新應用。本期重點:生數科技發佈Vidu Q2模型,在圖生視頻領域實現突破,其細微表情生成技術顯著提升AI演繹的真實感。欄目持續爲開發者提供前沿資訊與產品動態。
火山引擎推出爐米Lumi平臺,首次支持豆包、即夢等視覺模型的Lora微調功能,助力企業高效定製獨特視覺風格。在Vibe Coding時代,用戶注意力稀缺,視覺審美重要性凸顯。但通用模型常難精準匹配需求,開源模型效果參差不齊,平臺旨在解決這些痛點,滿足市場對個性化視覺創作的需求。
標題: 上海 AI 實驗室推出 Lumina-DiMOO,
Luminar Neo是一款先進的圖像處理程序,藉助AI輕鬆完善創意攝影作品。
通過AI聊天立即構建網站
Lumina-Video 是一個用於視頻生成的初步嘗試項目,支持文本到視頻的生成。
Lumina 是一款專為研究而設計的人工智能搜索引擎。
Immac
NetaYume Lumina Image 2.0 是一個文本到圖像的擴散模型,經過GGUF格式量化處理,能夠將文本描述轉換為圖像。該模型經過優化,在保持生成質量的同時減少了內存使用和提升了性能。
TildeAI
TildeOpen LLM 是一個開源的基礎語言模型,專門為服務代表性不足的北歐和東歐語言而設計。該模型由歐盟委員會資助,在LUMI超級計算機上訓練,擁有300億參數,解決了19種重點語言使用者在現有AI系統中面臨的性能差距問題。
BackGwa
基於Stable Diffusion XL 1.0架構的動漫風格圖像生成模型,融合Animagine XL 4和Nova Anime XL的優勢
Koitenshin
本模型是基於mrcuddle/Lumimaid-v0.2-12B-Pixtral轉換的GGUF量化版本,是一個12B參數的多模態模型,支持圖像文本到文本的生成任務。通過llama.cpp工具進行格式轉換和量化優化。
neta-art
Neta Lumina 是由 Neta.art Lab 開發的高質量動漫風格圖像生成模型,基於 Lumina-Image-2.0 模型微調,具備強大的理解和解讀能力。
LumiOpen
Poro 2 8B Instruct 是一個基於 Llama 3.1 8B 架構的指令遵循聊天機器人模型,專為芬蘭語和英語的對話式 AI 應用設計。
Yntec
LusciousMix V2.5與SXZ Luma 0.98模型的融合版本,專注於高質量風格化圖像生成
Alpha-VLLM
Lumina - mGPT 2.0 是一個獨立的、僅解碼器的自迴歸模型,統一了多種圖像生成任務。
sayakpaul
這是一個基於Alpha-VLLM/Lumina-Image-2.0訓練的DreamBooth LoRA權重,專門用於生成毛線藝術風格的圖像。
suayptalha
Luminis-phi-4是通過mergekit工具合併多個預訓練語言模型得到的文本生成模型,在Open LLM排行榜上表現優異,在參數不超過15B的模型中排名第3,在參數不超過32B的模型中排名第4
calcuis
Lumina的GGUF量化版本是一個專為生成優質圖像而設計的模型,支持基於文本提示生成高匹配度的圖像。
Lumina-Image 2.0 是一個基於流的擴散變換器模型,擁有20億參數,專注於文本到圖像的生成任務。
Undi95
Lumimaid與Magnum v4合併的12B參數大語言模型,採用DELLA合併方法並加入針對Claude輸入優化的Nemo模型
aixonlab
Lumiere Alpha 是一個專注於提升真實感的文本生成圖像模型,同時保持提示的連貫性和原始FLUX.1-Dev模型的構圖。
Lumina-mGPT是一個多模態自迴歸模型家族,擅長執行多種視覺與語言任務,特別是根據文本描述生成靈活逼真的圖像。
Lumina-mGPT 是一個多模態自迴歸模型家族,擅長根據文本描述生成靈活逼真的圖像,並能執行多種視覺和語言任務。
Lumina-mGPT 是一個多模態自迴歸模型家族,擅長根據文本描述生成靈活逼真的圖像,並能執行多種視覺與語言任務。
Chameleon-7b是基於Lumina-mGPT倉庫轉換的檢查點模型,旨在簡化模型初始化過程。
Lumina-mGPT 是一個多模態自迴歸模型系列,擅長根據文本描述生成靈活逼真的圖像。
bartowski
Lumimaid-v0.2-123B是基於llamacpp的imatrix量化版本的大語言模型,參數量為1230億。該項目提供了多種量化類型,讓用戶可以根據硬件資源和性能需求選擇合適的模型版本,在保持模型質量的同時實現高效運行。