虚拟

VideoChat

VideoChat是一款开源的实时数字人对话系统,支持语音输入与实时对话功能。用户可自定义数字人形象与音色,实现音色克隆。系统集成多种技术,包括语音识别、大语言模型生成及文本转语音,支持流式视频输出,适用于客户服务、在线教育、新闻播报、直播互动及娱乐等多个领域。

Vid2World

Vid2World是由清华大学和重庆大学联合开发的创新框架,能够将全序列、非因果的被动视频扩散模型(VDM)转换为自回归、交互式、动作条件化的世界模型。该模型基于视频扩散因果化和因果动作引导两大核心技术,解决了传统VDM在因果生成和动作条件化方面的不足。Vid2World支持高保真视频生成、动作条件化、自回归生成和因果推理,适用于机器人操作、游戏模拟等复杂环境,具有广泛的应用前景。

Mona Land

Mona Land是一款基于AI技术的角色扮演互动平台,提供高度拟真的虚拟角色定制服务,用户可设计角色外观、性格及思维模式,并与之进行深入对话和冒险。平台支持多平台访问,拥有丰富的角色类型和沉浸式故事体验,适用于角色扮演爱好者、创意表达者及社交互动需求者。

MVDrag3D

MVDrag3D是一种先进的3D编辑框架,具备多视图一致性编辑、3D高斯重建、视图对齐及视觉质量增强等功能。它能够处理复杂的拓扑变化并支持多样化的3D表示,适用于游戏开发、虚拟现实、增强现实以及计算机辅助设计等领域,展现了强大的生成性和灵活性。

Media2Face

一款革命性的语音面部动画生成工具,借助 Media2Face,现在可以从任何音频、图像或文本输入无缝生成逼真且富有表现力的面部动画。

HRAvatar

HRAvatar是由清华大学联合IDEA团队推出的单目视频重建技术,能够从普通单目视频中生成高质量、可重光照的3D头像。它采用可学习的形变基和线性蒙皮技术,结合精确的表情编码器和物理渲染模型,实现高精度重建和实时渲染(约155 FPS)。支持材质编辑、跨视角渲染和动画化,适用于数字人、虚拟主播、AR/VR、游戏开发和影视制作等领域。

EliGen

EliGen是由浙江大学与阿里巴巴集团联合开发的实体级可控图像生成框架,采用区域注意力机制实现对图像中实体的精确控制,支持多实体修复、风格化生成及交互式编辑。基于50万高质量注释样本训练,具备强大泛化能力,适用于虚拟场景、角色设计、数据合成及产品展示等场景。

UNO

UNO是字节跳动推出的AI图像生成框架,支持单主体和多主体图像生成,解决多主体一致性难题。采用扩散变换器和渐进式跨模态对齐技术,结合通用旋转位置嵌入(UnoPE),实现高一致性与可控性。适用于虚拟试穿、产品设计、创意设计等多个领域,具备强大泛化能力,已开源并提供完整技术文档。

魔珐科技

魔珐科技致力于为三维虚拟内容制作提供智能化、工业化的基础设施;为虚拟世界提供造人、育人、用人的全栈式技术和产品服务,打造虚拟世界基础设施平台。

OpenUtau

OpenUtau 是一款开源的歌声合成工具,支持 UTAU 音源库和 VSQX 格式,具备音素编辑、颤音控制、多语言界面等功能,适用于音乐创作与虚拟歌手合成。它兼容 Windows、macOS 和 Linux,提供预渲染与实时预览,提升创作效率,适合音乐人、开发者及音频爱好者使用。