游戏开发

千影 QianYing

千影 QianYing 是一款由巨人网络推出的 AI 工具,包含游戏视频生成大模型 YingGame 和视频配音大模型 YingSound。YingGame 支持角色动作交互控制与物理仿真,YingSound 具备视频语义理解和时间对齐能力,两者结合可生成高质量的有声游戏视频。该工具旨在降低游戏开发门槛,促进创作平等,并推动游戏行业的创新发展。

MMAudio

MMAudio是一款基于多模态联合训练的音频合成工具,通过深度学习技术实现视频到音频、文本到音频的精准转换。它具备强大的同步模块,确保生成的音频与视频帧或文本描述时间轴完全对应,适用于影视制作、游戏开发、虚拟现实等多种场景,极大提升了跨模态数据处理的能力和应用效率。

CausVid

CausVid是一种由Adobe和MIT联合开发的实时视频生成技术,基于自回归生成模型和蒸馏预训练技术,实现了低延迟、高效率的视频创作。其核心功能包括即时视频生成、快速流式生成、零样本图像到视频转换、视频风格迁移、长视频生成以及交互式剧情生成等。CausVid通过分布匹配蒸馏、非对称蒸馏策略和滑动窗口机制等技术手段,优化了视频生成的质量与稳定性,适用于内容创作、新闻报道、教育培训、游戏开发及广告营

clone

Clone-Voice是一款基于深度学习的声音克隆工具,支持16种语言的文本转语音及声音风格转换,具有友好的操作界面和较低的硬件要求。它被广泛应用于视频制作、语言学习、有声出版物创作、广告宣传及游戏开发等领域,为用户提供多样化的个性化声音解决方案。

MotionFix

MotionFix是一个开源的3D人体动作编辑工具,采用自然语言描述与条件扩散模型TMED相结合的方式,支持通过文本指令精准编辑3D人体动作。其主要功能包括文本驱动的动作编辑、半自动数据集构建、多模态输入处理及基于检索的评估指标。MotionFix适用于动画制作、游戏开发、虚拟现实等多个领域,为动作编辑提供了灵活性与精确性。

GeneMAN

GeneMAN是一个基于多源数据训练的3D人形创建框架,能够从单张图像生成高保真度的3D人体模型。它无需依赖传统参数化模型,支持多样化的身体比例、服装和姿势,广泛应用于虚拟试衣、游戏开发、AR/VR、时尚设计及健身管理等领域。

CAT4D

CAT4D是一种由Google DeepMind、哥伦比亚大学及加州大学圣地亚哥分校共同开发的工具,它利用多视图视频扩散模型,从单目视频中生成动态3D(4D)场景表示。该工具可以合成新视图、重建动态3D模型,并支持独立控制相机视点和场景动态,适用于电影制作、游戏开发、虚拟现实等多种领域。

MultiFoley

MultiFoley是一款基于多模态控制的音效生成系统,能够根据文本、音频或视频输入生成与视频同步的高质量Foley声音效果。它支持文本驱动和音频驱动的音效生成,同时具备音频扩展和质量控制功能,广泛应用于电影、游戏、动画及虚拟现实等领域,为用户提供灵活且高效的声音设计解决方案。

OminiControl

OminiControl是一款高效且参数节约的图像生成框架,专为扩散变换器模型设计,支持主题驱动和空间控制。通过增加少量参数,它能够生成高质量图像并保持主题一致性,适用于多种应用场景,包括艺术创作、游戏开发和广告设计等。其强大的多模态注意力机制和灵活的架构使其成为图像生成领域的创新工具。

Qwen2vl

Qwen2VL-Flux 是一款基于多模态图像生成的模型,结合了 Qwen2VL 和 FLUX 技术。它支持多种生成模式,包括变体生成、图像到图像转换、智能修复和 ControlNet 引导生成,并具备深度估计和线条检测功能。该模型提供灵活的注意力机制和高分辨率输出,适用于艺术创作、内容营销、游戏开发等多个领域。