虚拟现实

Scenethesis

Scenethesis是NVIDIA推出的AI框架,可通过文本生成高质量的3D场景。它结合LLM与视觉技术,经过布局规划、视觉细化、物理优化和场景验证四个阶段,确保生成结果具备物理合理性和空间连贯性。支持用户交互与多样化场景构建,广泛应用于VR/AR、游戏开发、具身智能及虚拟内容创作等领域。

ClotheDreamer

ClotheDreamer是一项基于文本描述生成高保真3D服装的技术,采用Disentangled Clothe Gaussian Splatting (DCGS) 和双向Score Distillation Sampling (SDS) 等先进技术,支持自定义模板输入和多体型适配,适用于虚拟试穿、游戏开发、电影制作及虚拟现实等场景。

Krea Stage

Krea Stage 是一款基于 AI 技术的工具,能够将 2D 图像快速转换为可编辑的 3D 场景,并支持视频生成。用户可通过直观界面实时调整物体、光影和视角,无需专业建模知识。适用于影视、游戏、艺术、VR 和广告等多个领域,提升了 3D 内容创作的效率和灵活性。

BAG

BAG是一项由香港中文大学与腾讯联合研发的3D可穿戴资产生成技术,结合多视图图像扩散模型与控制网络,根据人体形状和姿态信息生成高质量的服装和配饰。该技术具备高效适配、多样化生成和物理模拟优化等特点,广泛应用于虚拟试衣、游戏开发、VR/AR及时尚设计等领域,有效提升用户体验与设计效率。

LeviTor

LeviTor是一款由多所高校和企业联合研发的图像到视频合成工具,它利用深度信息和K-means聚类点来控制视频中3D物体的轨迹,无需显式3D轨迹跟踪。通过高质量视频对象分割数据集训练,该工具能精准捕捉物体运动与交互,支持用户通过简单的2D图像操作实现复杂的3D效果,大幅降低了技术门槛,广泛应用于电影特效、游戏动画、虚拟现实等领域。

Aiuni Ai

一个基于 Unique3D 开源技术的在线 AI 图片转 3D 模型生成建模工具,从一张照片生成3D模型只需30秒!

DanceFusion

DanceFusion是一款由清华大学开发的开源框架,专注于音频驱动的舞蹈动作生成与重建。它采用分层时空Transformer-VAE和扩散模型,能够处理不完整或嘈杂的数据,生成与音乐高度同步的逼真舞蹈动作。该工具支持多种应用场景,包括内容创作、虚拟现实、互动娱乐、舞蹈教育以及动画制作等,展现了其在多领域的应用价值。

PrimitiveAnything

PrimitiveAnything是由腾讯AIPD与清华大学联合开发的3D形状生成框架,通过将复杂3D形状分解为基本基元并自回归生成,实现高质量、高保真度的3D模型重建。其支持从文本或图像生成内容,具备高效存储、模块化设计及良好的泛化能力,适用于3D建模、游戏开发、UGC创作及VR/AR应用等领域。

HiCo

HiCo是一款基于扩散模型的层次化可控布局到图像生成工具,采用多分支结构设计,能够精确控制对象的位置和文本描述,解决复杂布局中的常见问题。该工具支持高分辨率图像生成,兼容多种快速生成插件,并在多目标布局生成任务中表现出色,适用于图像编辑、游戏设计、虚拟现实等多个领域。

LHM

LHM是由阿里巴巴通义实验室推出的3D人体模型重建系统,能从单张图像快速生成高质量、可动画化的3D人体模型。基于多模态Transformer架构,融合3D几何与2D图像信息,保留服装与面部细节,并采用3D高斯点云表示方式,支持实时渲染和姿态控制。适用于AR/VR、游戏开发、影视制作及教育等多个领域,具备高保真、强泛化和低延迟等优势。