泛化能力

iDP3

iDP3是一种基于自我中心3D视觉表征的改进型人形机器人运动策略,由斯坦福大学等机构联合开发。它摒弃了对精确相机校准和点云分割的需求,具备出色的视图、对象及场景泛化能力,可高效适应未知环境。此外,其优化的视觉编码器和扩散模型进一步提高了学习和推理性能,在家庭、工业、医疗、搜救及教育等领域具有广泛应用潜力。

ViewCrafter

ViewCrafter是一种由北京大学、香港中文大学和腾讯合作开发的先进视频扩散模型。它能够从单一或少量图像中合成高质量的新视图,结合视频扩散模型和基于点的3D表示,通过迭代视图合成策略和相机轨迹规划生成多样化的视图。该模型在多个数据集上展示了强大的泛化能力和性能,适用于实时渲染、沉浸式体验及场景级文本到3D生成等多种应用场景。

LongAlign

LongAlign是一种针对文本到图像生成任务的改进方法,通过分段级编码技术和分解偏好优化,有效解决了长文本输入的对齐问题。它能够显著提升生成图像与输入文本的一致性,广泛应用于艺术创作、游戏开发、影视制作及教育等领域,具备高精度和强泛化能力。