声明:本文来自于微信公众号 AIGC开放社区(ID:AIGCOPEN),作者:AIGC开放社区,授权站长之家转载发布。
4月27日,在2024中关村论坛-未来人工智能先锋论坛上,清华大学联合生数科技正式发布了,中国首个长时间、高一致性、高动态性视频大模型——Vidu。
据悉,Vidu采用了原创的Diffusion与Transformer融合的架构U-ViT,支持文本生成长达16秒、分辨率高达1080P的高清视频内容。
此外,Vidu不仅能够模拟真实物理世界,还具备丰富想象力,具备多镜头生成、时空一致性高等技术特点。这也是继Sora发布之后,全球率先取得重大突破的视频大模型,性能全面对标国际顶尖水平,并加速功能迭代中。
产品入口:https://top.aibase.com/tool/vidu
产品申请试用地址:https://www.shengshu-ai.com/home?ref=maginative.com
Vidu架构简单介绍
生数科技的研发和原创能力非常强悍,已在全球顶级期刊arxiv上发布了超过15篇技术论文,这也是其能原创Vidu架构的重要原因之一。
研究人员表示,Vidu的快速突破源自于团队在贝叶斯机器学习和多模态大模型的长期积累和多项原创性成果。
其核心技术U-ViT架构由团队于2022年9月提出,早于Sora采用的DiT架构,是全球首个Diffusion与Transformer融合的架构。
2023年3月,生数科技开源了全球首个基于U-ViT融合架构的多模态扩散模型UniDiffuser,并率先完成了U-ViT架构的大规模可扩展性验证。
基于对U-ViT架构的深入理解以及长期积累的工程与数据经验,研究人员在短短两个月里进一步突破了长视频表示与处理的多项关键技术,成功研发了Vidu视频大模型,显著提升视频的连贯性和动态性。
Vidu的发布不仅是U-ViT融合架构在大规模视觉任务中的又一次成功验证,也代表了生数科技在多模态原生大模型领域的持续创新能力和领先性。
作为通用视觉模型,Vidu能够支持生成更加多样化、更长时长的视频内容,同时面向未来,灵活架构将能够兼容更广泛的模态,进一步拓展多模态通用能力的边界。
除了Vidu视频大模型之外,生数科技还提供文生图片、文本或图片生成3D模型,已经提供在线使用,有兴趣的小伙伴可以去体验一下。
生数科技介绍
北京生数科技有限公司(简称“生数科技”)成立于2023年3月,核心团队成员来自清华大学人工智能研究院,此外 汇集了来自阿里、腾讯、字节等知名科技公司的顶尖人才,是全球范围内领先的深度生成式算法研究团队,拥有扩散概率模型底层创新研发能力。
生数科技致力打造世界领先的多模态大模型,融合文本、图像、视频、3D等多模态信息,探索生成式AI在艺术设计、游戏制作、影视后期、内容社交等场景的商业赋能,通过AI提升人类的创造力和生产力。
本文素材来源生数科技官网,如有侵权请联系删除
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】