首页
资讯
深度
投融资
政策
活动
视频
当前模式 菜单关闭
我们能帮忙找点什么吗?

Meta和牛津大学开发VFusion3D大模型,可根据单个图像或文本生成高质量3D内容

发布日期:2024-08-12 17:00:55
字号:A+A-

编译 / VRAR星球 R星人


据近日消息,Meta正与牛津大学的研究团队共同开发一个名为VFusion3D的大模型。该模型能够从单个图像或文本描述中生成高质量的3D对象,标志着3D内容创作的一个重要飞跃,尤其在虚拟现实、游戏和数字设计等领域中具有巨大潜力。

 

图源:VentureBeat/Meta/牛津大学

 

据了解,VFusion3D模型能够在几秒钟内从单个图像生成3D asset,极大地提高了3D内容创作的效率。在实际测试中,与之前的顶尖系统相比,人类评估者更倾向于选择VFusion3D生成的3D重建,比例超过90%。

 

针对AI领域长期存在的3D训练数据稀缺问题,研究团队利用预训练的视频AI模型生成合成3D数据,从而训练出更强大的3D生成系统。通过微调现有的视频AI模型,产生多视角视频序列,本质上是教会模型从多个角度想象物体。

 

不过,尽管VFusion3D模型在多个方面表现出色,但研究人员也指出了其面临的挑战:例如系统在处理车辆和文本等特定对象类型时有时会遇到困难。随着视频AI模型的不断发展,更多可用于微调的3D数据将有助于提升VFusion3D的能力。


商务合作:13146398132undefined

媒体合作:13341147250

爆料投稿:editor@vrarworld.cn

版权声明:本文为VRAR星球原创,任何单位及个人未经授权不得转载,否则将依法追究侵权责任。

如需转载请联系13341147250 / editor@vrarworld.cn 申请授权,转载时请注明来源并保留VRAR星球原文链接。

本文部分图片及视频来源于互联网,如涉及侵权请联系我们删除。

发表评论(0
热门资讯