可靈AI公司宣佈其O1視頻大模型已全量上線,採用統一多模態架構,支持文字、圖像等多種輸入方式,實現一句話生成視頻。
愛詩科技推出PixVerse V5.5(國內版“拍我AI V5.5”),實現全量升級並開放體驗。該模型是國內首個支持“多鏡頭+音畫同步一鍵直出”的AI視頻大模型,推動AI生成視頻從“單鏡頭素材”進入“完整敘事短片”階段。基於自研MVL架構,V5.5能在5-10秒內自動完成腳本拆解、分鏡調度及音效生成,顯著提升視頻製作的完整性與效率。
PixVerse AI V5.5版本上線,用戶通過一句話即可生成帶聲音、口型同步的高清視頻,並支持智能多鏡頭自動切換,大幅簡化視頻製作流程。該版本提供5秒、8秒、10秒多鏡頭選項,可一鍵生成包含遠景、中景、近景的自然切換鏡頭,使運鏡更流暢。
9月23日,人工智能音樂平臺Suno發佈v5模型,專爲Pro和Premier用戶設計,提升音頻沉浸感、人聲逼真度及創意控制力,推動AI音樂創作邁向專業化新階段。
Suno V5 AI是先進音樂生成平臺,可生成8分鐘內專業級歌曲,精準識別曲風。
基於Suno V5功能,風格與歌詞聯動,極速生成高質量音樂,支持免費試用。
Midjourney v5 藝術生成器
John6666
Realistic Vision V5.1 是一個基於 Stable Diffusion XL 的文本到圖像生成模型,專注於生成高質量、逼真的人物肖像和場景圖像。該模型支持多種風格,包括寫實、動漫、遊戲等,能夠生成具有高度真實感的人物、女演員肖像以及動漫風格圖像。
Realistic Vision V5.1是一個基於Stable Diffusion XL的文本到圖像生成模型,專門用於生成逼真的照片級圖像。該模型在圖像創作領域具有較高的應用價值,能夠根據文本描述生成高質量的寫實風格圖像。
VPLabs
專為電商搜索優化的對話式嵌入模型,基於Stella Embed 400M v5微調,擅長理解自然語言查詢並匹配相關商品
billatsectorflow
Stella 400M v5 是一個英語文本嵌入模型,在多個文本分類和檢索任務上表現出色。
saq1b
模擬Midjourney v5.2風格的LoRA適配器,優化圖像細節、色彩和背景景深
RWKV
RWKV-5 Eagle 7B是基於RWKV架構的7B參數規模大語言模型,支持中文文本生成任務
stablediffusionapi
Realistic Vision V5.1 是一款基於 Stable Diffusion 的超現實風格文生圖模型,能夠生成高度逼真的人物肖像和場景圖像。
tomaarsen
基於RoBERTa-large的SpanMarker模型,用於命名實體識別任務,在OntoNotes v5.0數據集上訓練。
Anything V5 是一個基於 Stable Diffusion 的文本生成圖像模型,專注於生成超現實風格的動漫和藝術圖像。
Linaqruf
Anything V5 是由 Anything V3 原作者開發的穩定擴散模型,專注於文本到圖像生成,支持高質量藝術創作。
liaad
該模型是在英語CoNLL格式的OntoNotes v5.0語義角色標註數據上對xlm-roberta-base進行微調的結果,專注於英語語義角色標註任務。
該模型是在英語CoNLL格式的OntoNotes v5.0語義角色標註數據上微調的bert-base-multilingual-cased模型,主要用於語義角色標註任務。
該項目是一個基於Model Context Protocol (MCP)的服務器,通過ethers.js v5為Claude提供訪問以太坊及EVM兼容區塊鏈的功能,包括創建錢包、查詢餘額、發送交易和與智能合約交互等操作。
Strapi MCP服務器是一個標準化接口服務,支持AI助手與Strapi CMS進行交互,提供內容類型管理、REST API操作、媒體上傳等功能,兼容Strapi v4和v5版本。
一個用於對接Bybit交易所API的FastMCP服務器實現,支持V5 API、統一賬戶交易、多種交易類型及即時數據流。