人工智能

Sora平替?2分钟超长AI视频模型StreamingT2V免费开源 试玩地址公布

字号+作者: 来源:站长之家 2024-04-15 10:31 评论(创建话题) 收藏成功收藏本文

站长之家(ChinaZ.com)4月15日 消息:近日,Picsart AI Research等团队联合发布了一款名为StreamingT2V的AI视频模型,该模型能够生成长达1200帧、时长达2分钟'...

站长之家(ChinaZ.com)4月15日 消息:近日,Picsart AI Research等团队联合发布了一款名为StreamingT2V的AI视频模型,该模型能够生成长达1200帧、时长达2分钟的视频,这在技术上超越了之前备受关注的Sora模型。StreamingT2V的发布不仅在视频长度上取得了突破,而且它是一个免费开源的项目,可以无缝兼容SVD和animatediff等模型,这对于开源生态的发展具有重要意义。ZVa品论天涯网

2.pngZVa品论天涯网

在Sora之前,市场上的视频生成模型如Pika、Runway、Stable Video Diffusion(SVD)等,通常只能生成几秒钟到十几秒的视频。Sora的出现以其60秒的视频生成能力成为行业的新标杆。而现在,StreamingT2V的推出,不仅在时长上有所突破,理论上还可以做到无限长,这为视频生成领域带来了更多可能性。ZVa品论天涯网

StreamingT2V的架构采用了先进的自回归技术,能够创建具有丰富运动动态的长视频,同时保持视频的时间一致性和高帧级图像质量。与现有的文本到视频扩散模型相比,这些模型通常集中在高质量的短视频生成上,而在扩展到长视频时往往会出现质量下降、表现生硬或停滞等问题。StreamingT2V通过引入条件注意力模块(CAM)和外观保留模块(APM),以及一种随机混合方法,有效地解决了这些问题。ZVa品论天涯网

CAM作为短期记忆块,通过注意机制调节当前一代的视频,以实现一致的块过渡;而APM作为长期记忆块,从第一个视频块中提取高级场景和对象特征,防止模型忘记初始场景。此外,StreamingT2V还利用高分辨率文本到视频模型对生成的视频进行自动回归增强,以提高质量和分辨率。ZVa品论天涯网

目前,StreamingT2V已经在GitHub上开源,并在huggingface上提供了免费试玩。尽管服务器负载可能较高,但用户可以尝试输入文字和图片提示来生成视频。此外,huggingface上也展示了一些成功的案例,证明了StreamingT2V在视频生成方面的强大能力。ZVa品论天涯网

StreamingT2V的发布不仅为视频生成领域带来了新的技术突破,也为开源社区提供了一个强大的工具,有助于推动相关技术的发展和应用。未来,我们或许可以期待更多基于这类技术的创新应用,例如在电影制作、游戏开发、虚拟世界构建等领域发挥重要作用。ZVa品论天涯网

开源代码:https://top.aibase.com/tool/streamingt2vZVa品论天涯网

论文地址:https://arxiv.org/pdf/2403.14773.pdfZVa品论天涯网

试玩地址1:https://huggingface.co/spaces/PAIR/StreamingT2VZVa品论天涯网

试玩地址2:https://replicate.com/camenduru/streaming-t2vZVa品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]

相关文章