虚拟

DeepMesh

DeepMesh是由清华大学和南洋理工大学研发的3D网格生成框架,结合强化学习与自回归变换器技术,实现高质量、高精度的3D模型生成。支持点云和图像条件输入,具备高效的预训练策略与人类偏好对齐机制,适用于虚拟环境、角色动画、医学模拟及工业设计等多个领域。

GenXD

GenXD是一款由新加坡国立大学与微软联合开发的3D-4D联合生成框架,能够从任意数量的条件图像生成高质量的3D和4D场景。它通过数据整理流程提取相机姿态和物体运动信息,基于多视角时序模块分离相机与物体运动,并借助掩码潜在条件支持多种视角生成。GenXD支持3D场景重建、动态场景生成以及3D和4D数据融合,适用于视频游戏开发、电影制作、虚拟现实、建筑规划等多个领域。

OmniBooth

OmniBooth是一款由华为诺亚方舟实验室与香港科技大学联合开发的图像生成框架,支持基于文本或图像的多模态指令控制及实例级定制。它通过高维潜在控制信号实现对图像中对象位置和属性的精准操控,具备多模态嵌入提取、空间变形技术以及特征对齐网络等功能,广泛应用于数据集生成、内容创作、游戏开发、虚拟现实及广告营销等领域。

RAG

RAG-Diffusion是一种区域感知型文本到图像生成工具,采用区域硬绑定与区域软细化两阶段策略,实现对图像区域的精确控制与细节优化。该工具支持图像重绘,无需额外内绘模型,且具备免微调特性。其主要应用场景包括数字艺术创作、广告设计、游戏开发及影视制作等领域,能够显著提升工作效率并满足个性化需求。

Hi Echo

Hi Echo, 虚拟人口语教练。为您提供随时随地的一对一口语练习,覆盖多个对话场景和话题,比真人口语教练更专业地道;提供对话分数及完整对话评测报告,帮助快速提升口语能力。

Sitcom

Sitcom-Crafter是一款由多所高校联合开发的3D场景人类动作生成系统,能够根据剧情描述生成多样化、符合物理规律的动作,包括行走、交互及多人协作。系统具备八大模块,包含核心动作生成与增强功能,如碰撞修正、运动同步与手部姿态检索。其核心技术包括3D场景感知与自监督SDF策略,无需额外数据即可生成自然动作。适用于动画、游戏、VR/AR、影视及教育等多个领域,提升创作效率与智能化水平。

EDTalk

EDTalk是一款基于音频驱动的唇部同步模型,支持嘴型、头部姿态及情感表情的独立操控。用户可通过上传图片、音频和参考视频生成具有唇形同步和情感表达的动态人脸视频,广泛应用于教育、影视后期、虚拟现实等领域。其高效解耦机制和轻量化设计使其易于操作且资源友好。

MVPaint

MVPaint是一款基于同步多视角扩散技术的3D纹理生成框架,具备同步多视角生成、空间感知3D修补和UV细化三大核心功能。它能够生成高分辨率、无缝且多视图一致的纹理,广泛应用于游戏开发、动画制作、虚拟现实、增强现实及建筑可视化等领域。

Glow

GLOW 是一个创新的AI虚拟社交应用,它通过提供个性化的智能体和沉浸式的交流体验,使用户能够与AI建立情感联系,享受不间断的社交互动。

VidAU

VidAU提供了一个基于人工智能的视频生成服务,旨在简化从构思到制作的整个内容创作过程,让创作变得更加容易。