VR

MeshifAI

MeshifAI 是一款 AI 驱动的文本转 3D 模型生成工具,支持创建基础模型和 PBR 纹理模型,输出格式为 .glb,兼容多种 3D 软件和应用。用户可通过参数调整模型的创意性与质量,适合游戏开发、应用设计及网站展示等场景。

WorldMem

WorldMem是由多所高校与研究机构联合开发的AI世界生成模型,通过引入记忆机制解决传统模型在长时间序列生成中的一致性问题。它支持动态环境模拟、多场景交互及长期一致性保持,适用于虚拟游戏、VR/AR、自动驾驶等多个领域,具备高度真实性和可扩展性。

WonderPlay

WonderPlay 是斯坦福大学与犹他大学联合开发的新型框架,能够从单张图片和用户定义的动作生成动态3D场景。它结合物理模拟与视频生成技术,支持多种物理材质和动作类型,实现逼真的动态效果。用户可通过简单操作与场景互动,生成丰富的物理响应。该工具具备交互式查看器,适用于AR/VR、影视特效、教育、游戏开发等多个领域。

GeneMAN

GeneMAN是一个基于多源数据训练的3D人形创建框架,能够从单张图像生成高保真度的3D人体模型。它无需依赖传统参数化模型,支持多样化的身体比例、服装和姿势,广泛应用于虚拟试衣、游戏开发、AR/VR、时尚设计及健身管理等领域。

Amodal3R

Amodal3R 是一种基于条件的 3D 生成模型,能够从部分遮挡的 2D 图像中重建完整的 3D 模型。通过引入掩码加权多头交叉注意力机制和遮挡感知注意力层,提升了遮挡场景下的重建精度。该模型仅使用合成数据训练,却能在真实场景中表现出色,具有较强的泛化能力。广泛应用于 AR/VR、机器人视觉、自动驾驶及 3D 资产创建等领域。

Avat3r

Avat3r 是由慕尼黑工业大学与 Meta Reality Labs 联合开发的高保真三维头部头像生成模型,基于高斯重建技术,仅需少量输入图像即可生成高质量且可动画化的 3D 头像。其核心优势在于使用交叉注意力机制实现表情动态化,支持多源输入,具备良好的鲁棒性和泛化能力。适用于 VR/AR、影视制作、游戏开发及数字人等领域。

MotionCanvas

MotionCanvas是一种图像到视频生成工具,能将静态图像转化为动态视频。它提供相机与物体运动的联合控制,支持复杂轨迹设计和局部运动调整,具备3D感知能力,可生成高质量长视频。适用于电影制作、动画创作、VR/AR、游戏开发及教育等多个领域。

Live3D

Live3D是一款面向虚拟主播(VTuber)的综合工具套件,提供面部追踪、3D形象定制、动画制作及直播互动等功能。其包含VTuber Maker、Editor、Gallery等组件,支持手部追踪、VRM模型编辑及AI动作捕捉,适用于虚拟直播、内容创作、在线教育等多种场景。该工具具备丰富的资源库和持续更新机制,适合个人与专业创作者使用。

Loopy AI

字节跳动和浙江大学联合开发的音频驱动的AI视频生成模型,能够将静态图像转化为动态视频,实现音频与面部表情、头部动作的完美同步。