视频AI生成公司Pika Labs推出工具Pika1.0,支持文本和图片生成视频,还可编辑视频风格、内容、尺寸等。用户增长迅速,已有55万用户,每周产生数百万视频。公司估值超过2亿美元,投资方包括OpenAI联合创始人等大佬。Pika1.0被认为是视频生成领域的“王者”,有望为普通用户制作出水平不俗的AI电影。
相关AI新闻推荐

Luma Ray2 Camera Concepts API 发布:AI 视频生成迈向电影级控制
Luma AI 宣布其旗舰视频生成模型 Ray2的 Camera Concepts API 正式上线,为开发者提供了前所未有的电影级镜头控制能力。结合此前推出的 Camera Motion Concepts 和 Camera Angle Concepts,这一 API 的发布标志着 AI 视频生成技术在创意控制和生产效率上的重大突破。Camera Concepts API:赋予开发者电影级创意控制Luma Ray2的 Camera Concepts API 允许开发者通过简单的 API 调用,精准控制 AI 生成视频中的镜头运动和角度。该 API 整合了 Ray2的 Camera Motion Concepts(包括平移、轨道、起重机镜头等20余种运动模式)和 Camera Angle

豆包视频生成功能升级 涵盖语义理解、动作连贯性等方面
豆包宣布其视频生成功能进行了重大升级,这一消息迅速吸引了众多用户的关注。此次升级涵盖了语义理解、影调画质、风格类型以及动作连贯性等多个方面,显著提升了视频生成的质量和用户体验。

全球首部AI制作长片《海上女王郑一嫂》震撼上映:科技与艺术的碰撞
在电影行业不断探索新技术的今天,全球首部政府批准的 AI 生成长片《海上女王郑一嫂》于4月24日在新加坡正式上映。这部70分钟的影片突破了传统电影制作的界限,以其完整的故事叙述和多样的角色展现了人工智能在影视创作中的无限可能。《海上女王郑一嫂》以历史传奇女海盗郑一嫂为原型,她曾统领约1800艘船只,领导十万海盗。在主创团队 FizzDragon 的带领下,影片不仅重现了郑一嫂的传奇故事,还展示了 AI 技术如何在复杂的影视制作中发挥作用。尽管 AI 在影视领域已有先例,如 N

全球首部AI生成电影《海上女王郑一嫂》上映 时长70分钟
近日,由新加坡影视制作公司FizzDragon出品的70分钟华语AIGC(人工智能生成内容)电影《海上女王郑一嫂》正式在新加坡院线上映,成为全球首部进入商业院线公映的AI技术长片。该片以18世纪中国传奇女海盗郑一嫂为原型,其人物形象曾启发《加勒比海盗》系列中“清夫人”一角的创作。

Pixverse推出MCP:一键解锁AI视频生成新境界
随着生成式AI技术的迅猛发展,视频创作领域正迎来新的变革浪潮。Pixverse作为AI视频生成领域的领先平台,近期推出了Model Context Protocol(MCP),为用户和开发者提供了更高效、灵活的视频生成解决方案。MCP是什么?解锁AI视频生成新方式Pixverse的MCP(Model Context Protocol)是一种专为AI视频生成设计的协议,允许用户通过支持MCP的应用程序(如Claude或Cursor)直接调用Pixverse的最新视频生成模型。这一协议的核心在于无缝集成,用户无需复杂的开发环境或专业技能,即可通过自然语言提示生成高质量视

即梦视频3.0内测:运镜丝滑、精准捕捉人物表情
昨天晚上,即梦开启视频3.0模型内测。新视频模型,运镜更流畅,相较前几个模型,提示词遵循度也更高了。从官方给出了几个示例看,新模型在大幅度动作上表现也更稳了,不会轻易出现人物崩坏的情况。男人打高尔夫球、小狗做饭、男孩深情歌唱、玩偶与机器人拥抱等各类场景都能轻松搞定。即梦3.0主要亮点如下:1、丰富的镜头语言从制造紧张感的急速推进,到展现广阔场景的舒缓平移,再到聚焦主体的环绕运镜,乃至营造特殊视角的低角度上升及俯拍,多种专业级运镜方式信手拈来
颠覆视频创作!阿里巴巴 VACE 模型统一处理文本、图像和视频输入
阿里巴巴集团的科学家们推出了 VACE,这是一种旨在统一处理广泛视频生成和编辑任务的通用人工智能模型。VACE 的核心是增强的扩散 Transformer 架构,其创新之处在于“视频条件单元”(VCU)这一新型输入格式。VCU 将文本提示、参考图像或视频序列以及空间蒙版等多种模态输入提炼为统一的表示,并通过专门的机制协调不同输入,避免冲突。概念解耦实现精细控制VACE 采用“概念解耦”技术将图像分割为可编辑和固定区域,实现对修改内容和保留内容的精细控制。视觉信息通过遮罩划分为

Character.AI 推出 AvatarFX 模型:让静态图片中的人物“开口说话”
Character.AI 近日宣布推出全新视频生成模型 AvatarFX,这一突破性技术能够将静态图片转化为具有真实感的可说话视频角色,赋予图像中的人物动态表情、唇部同步以及自然肢体动作。AvatarFX 的核心是其最先进的基于扩散模型的动态生成技术。该技术依托经过精心筛选的数据集进行训练,融合了创新的音频条件化、蒸馏和推理策略,使得用户能够以极高的速度生成高保真、时间一致性强的视频。无论是长序列的叙事,还是多个角色之间的对话,AvatarFX 都能够完美应对,带来令人惊艳的视觉体验

全球首个自回归视频生成大模型 MAGI-1 重磅发布,Swin Transformer 团队引领视频创作新潮流
在视频生成领域,最近涌现出了一位强劲的新选手 ——MAGI-1。这款由马尔奖和清华特奖得主曹越领导的创业公司 Sand AI 推出的自回归视频生成大模型,正在重新定义视频创作的可能性。MAGI-1通过预测视频块的序列来生成视频,以其自然流畅的效果和多个可下载版本引发广泛关注。MAGI-1在生成视频时具有诸多优越性能。首先,它提供了无缝流畅的视频体验,能够生成连续的长视频场景,没有尴尬的剪辑或突兀的拼接,仿佛是电影一般。此外,MAGI-1还实现了秒级的时间轴精准控制,让用户能够
2025年AI视频生成企业TOP20榜单出炉:可灵AI、即梦AI、PixVerseAI位居前三
近日,由 DBC、CIW 和 CIS 联合发布的 “2025年 AI 视频生成企业 TOP20” 榜单正式出炉,快手旗下“可灵AI”、爱诗科技“PixVerseAI”及抖音“即梦AI”占据前三席位。另外,阿里巴巴(通义万相、绘蛙AI视频)、腾讯(智影)、科大讯飞(讯飞绘镜)、MiniMax(海螺AI)等多家企业均榜上有名。