据品玩 1 月 22 日报道,HuggingFace 页面显示,Adobe 发布全新视频模型 ActAnywhere,它可以根据前景主体的运动和外观,为电影和视觉特效社区生成视频背景。 ActAnywhere 模型通过引入跨帧注意力进行时间推理,将用户的创意想法快速地融入到动态的虚拟场景中。模型的训练数据集包含 240 万个包含人类与场景交互的视频,并通过自监督的方式进行训练。评估结果表明,ActAnywhere 能够生成具有高度真实感的前景与背景互动、相机运动、光影效果的视频,并能够推广到分布于训练数据之外的样本,包括非人类主体。
(责编: admin)
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:goldenhorseconnect@gmail.com