虚拟

Aiuni Ai

一个基于 Unique3D 开源技术的在线 AI 图片转 3D 模型生成建模工具,从一张照片生成3D模型只需30秒!

PrimitiveAnything

PrimitiveAnything是由腾讯AIPD与清华大学联合开发的3D形状生成框架,通过将复杂3D形状分解为基本基元并自回归生成,实现高质量、高保真度的3D模型重建。其支持从文本或图像生成内容,具备高效存储、模块化设计及良好的泛化能力,适用于3D建模、游戏开发、UGC创作及VR/AR应用等领域。

Open Computer Agent

Open Computer Agent 是一款基于云端的 AI 工具,支持在 Linux 虚拟机中运行,能通过自然语言指令完成多种任务。结合视觉模型实现界面元素识别与交互,具备任务自动化、多任务处理能力,并提供云托管服务,适用于办公、教育、数据收集等场景。

DanceFusion

DanceFusion是一款由清华大学开发的开源框架,专注于音频驱动的舞蹈动作生成与重建。它采用分层时空Transformer-VAE和扩散模型,能够处理不完整或嘈杂的数据,生成与音乐高度同步的逼真舞蹈动作。该工具支持多种应用场景,包括内容创作、虚拟现实、互动娱乐、舞蹈教育以及动画制作等,展现了其在多领域的应用价值。

HiCo

HiCo是一款基于扩散模型的层次化可控布局到图像生成工具,采用多分支结构设计,能够精确控制对象的位置和文本描述,解决复杂布局中的常见问题。该工具支持高分辨率图像生成,兼容多种快速生成插件,并在多目标布局生成任务中表现出色,适用于图像编辑、游戏设计、虚拟现实等多个领域。

LHM

LHM是由阿里巴巴通义实验室推出的3D人体模型重建系统,能从单张图像快速生成高质量、可动画化的3D人体模型。基于多模态Transformer架构,融合3D几何与2D图像信息,保留服装与面部细节,并采用3D高斯点云表示方式,支持实时渲染和姿态控制。适用于AR/VR、游戏开发、影视制作及教育等多个领域,具备高保真、强泛化和低延迟等优势。

OmniConsistency

OmniConsistency 是新加坡国立大学推出的图像风格迁移模型,旨在解决复杂场景下风格化图像的一致性问题。该模型采用两阶段训练策略,将风格学习与一致性学习解耦,并支持与任意风格的 LoRA 模块集成,实现高效且灵活的风格化效果。它在多种风格下保持图像的语义、结构和细节一致性,具备更高的灵活性和泛化能力,在实验中表现出与 GPT-4o 相当的性能。

Alpha3D

Alpha3D是一款无需3D建模经验的人工智能驱动工具,可将2D图像或文本描述快速转化为3D模型。它支持游戏开发、虚拟现实、增强现实及元宇宙等领域的应用,具备文本到3D、2D到3D模型生成等功能,并可与NVIDIA Omniverse集成,提供从免费到企业级的多种订阅方案。

SAM2Point

SAM2Point是一种基于SAM2的3D分割技术,无需额外训练或2D-3D投影,即可直接对任意3D数据进行零样本分割。该工具通过将3D数据体素化,并将其模拟为多方向视频流,实现精确的空间分割。SAM2Point支持多种3D提示类型,如点、框和掩码,展现了在多种场景下的泛化能力,包括3D物体、室内室外环境以及LiDAR数据,为未来的3D可提示分割研究提供了新起点。

FabricDiffusion

FabricDiffusion是一项由谷歌与卡内基梅隆大学联合开发的高保真3D服装生成技术,可将2D服装图像的纹理和印花高质量地转移到3D服装模型上。其核心技术基于去噪扩散模型和大规模合成数据集,生成多种纹理贴图并支持跨光照条件的精准渲染,具备优秀的泛化能力和实际应用潜力,适用于虚拟试衣、游戏开发、影视制作及时尚设计等多个领域。