ByteDance 的下一代人工智能模型可以根据文本、图像、音频和视频生成片段

The Verge
ByteDance 推出了 Seedance 2.0,一个支持文本、图像、音频和视频等多模态提示的下一代人工智能视频生成器。

内容摘要

字节跳动(ByteDance)推出了其下一代人工智能视频生成模型 Seedance 2.0,该公司是 TikTok 的母公司。Seedance 2.0 支持多模态提示,允许用户结合文本、图像、视频和音频来生成内容。字节跳动声称该模型在生成质量上实现了“实质性飞跃”,尤其擅长处理包含多个主体的复杂场景并遵循指令,可以生成最长 15 秒并带有音频的片段。用户可以通过输入多达九张图片、三个视频片段和三个音频片段来精炼提示。此举使 Seedance 2.0 与 Google Veo 3 和 OpenAI 的 Sora 2 等最新进展处于竞争地位。社交媒体上的演示展示了其生成逼真动作序列和动漫风格片段的能力,但关于版权保护尚不明确。目前,Seedance 2.0 仅通过字节跳动的 Dreamina AI 平台及其助手 Doubao 开放使用,是否会登陆 TikTok 仍是未知数。

(来源:The Verge)