可灵AI公司宣布其O1视频大模型已全量上线,采用统一多模态架构,支持文字、图像等多种输入方式,实现一句话生成视频。
爱诗科技推出PixVerse V5.5(国内版“拍我AI V5.5”),实现全量升级并开放体验。该模型是国内首个支持“多镜头+音画同步一键直出”的AI视频大模型,推动AI生成视频从“单镜头素材”进入“完整叙事短片”阶段。基于自研MVL架构,V5.5能在5-10秒内自动完成脚本拆解、分镜调度及音效生成,显著提升视频制作的完整性与效率。
PixVerse AI V5.5版本上线,用户通过一句话即可生成带声音、口型同步的高清视频,并支持智能多镜头自动切换,大幅简化视频制作流程。该版本提供5秒、8秒、10秒多镜头选项,可一键生成包含远景、中景、近景的自然切换镜头,使运镜更流畅。
9月23日,人工智能音乐平台Suno发布v5模型,专为Pro和Premier用户设计,提升音频沉浸感、人声逼真度及创意控制力,推动AI音乐创作迈向专业化新阶段。
Suno V5 AI是先进音乐生成平台,可生成8分钟内专业级歌曲,精准识别曲风。
基于Suno V5功能,风格与歌词联动,极速生成高质量音乐,支持免费试用。
Midjourney v5 艺术生成器
John6666
Realistic Vision V5.1 是一个基于 Stable Diffusion XL 的文本到图像生成模型,专注于生成高质量、逼真的人物肖像和场景图像。该模型支持多种风格,包括写实、动漫、游戏等,能够生成具有高度真实感的人物、女演员肖像以及动漫风格图像。
Realistic Vision V5.1是一个基于Stable Diffusion XL的文本到图像生成模型,专门用于生成逼真的照片级图像。该模型在图像创作领域具有较高的应用价值,能够根据文本描述生成高质量的写实风格图像。
VPLabs
专为电商搜索优化的对话式嵌入模型,基于Stella Embed 400M v5微调,擅长理解自然语言查询并匹配相关商品
billatsectorflow
Stella 400M v5 是一个英语文本嵌入模型,在多个文本分类和检索任务上表现出色。
saq1b
模拟Midjourney v5.2风格的LoRA适配器,优化图像细节、色彩和背景景深
RWKV
RWKV-5 Eagle 7B是基于RWKV架构的7B参数规模大语言模型,支持中文文本生成任务
stablediffusionapi
Realistic Vision V5.1 是一款基于 Stable Diffusion 的超现实风格文生图模型,能够生成高度逼真的人物肖像和场景图像。
tomaarsen
基于RoBERTa-large的SpanMarker模型,用于命名实体识别任务,在OntoNotes v5.0数据集上训练。
Anything V5 是一个基于 Stable Diffusion 的文本生成图像模型,专注于生成超现实风格的动漫和艺术图像。
Linaqruf
Anything V5 是由 Anything V3 原作者开发的稳定扩散模型,专注于文本到图像生成,支持高质量艺术创作。
liaad
该模型是在英语CoNLL格式的OntoNotes v5.0语义角色标注数据上微调的bert-base-multilingual-cased模型,主要用于语义角色标注任务。
该模型是在英语CoNLL格式的OntoNotes v5.0语义角色标注数据上对xlm-roberta-base进行微调的结果,专注于英语语义角色标注任务。
该项目是一个基于Model Context Protocol (MCP)的服务器,通过ethers.js v5为Claude提供访问以太坊及EVM兼容区块链的功能,包括创建钱包、查询余额、发送交易和与智能合约交互等操作。
Strapi MCP服务器是一个标准化接口服务,支持AI助手与Strapi CMS进行交互,提供内容类型管理、REST API操作、媒体上传等功能,兼容Strapi v4和v5版本。
一个用于对接Bybit交易所API的FastMCP服务器实现,支持V5 API、统一账户交易、多种交易类型及实时数据流。