Flex3D是由Meta的GenAI团队与牛津大学研究团队共同开发的一种创新性两阶段3D生成框架。该框架能够利用任意数量的高质量输入视图,有效应对从文本、单一图像或稀疏视图生成高质量3D内容的挑战。在第一阶段,通过微调的多视图及视频扩散模型生成多样化候选视图,并采用视图选择机制确保仅保留高质量且一致的视图进入下一阶段。第二阶段则运用灵活重建模型(FlexRM),这是一种基于Transformer架构的模型,可处理任意数量的输入视图并直接输出3D高斯点,从而实现高效的三维生成。Flex3D在3D重建与生成任务中展现了卓越性能,用户满意度超过92%。
发表评论 取消回复