扩散模型

Step1X

Step1X-Edit 是由阶跃星辰团队推出的通用图像编辑框架,结合多模态大语言模型与扩散模型,支持多样化的图像编辑任务,如主体修改、背景更换、风格转换等。用户可通过自然语言指令进行操作,系统能精准理解并生成高质量图像。该工具基于大规模数据集训练,具备强大的真实场景适应能力,适用于创意设计、影视制作、社交媒体等多个领域。

InvSR

InvSR是一款基于扩散模型逆过程开发的图像超分辨率工具,通过深度噪声预测器和灵活采样机制,从低分辨率图像恢复高质量高分辨率图像。它支持多种应用场景,包括文化遗产保护、视频监控、医疗成像及卫星影像分析,同时兼顾计算效率与性能表现。

CogView4

CogView4是一款由智谱推出的开源文生图模型,具有60亿参数,支持中英文输入与高分辨率图像生成。在DPG-Bench基准测试中表现优异,达到当前开源模型的领先水平。模型具备强大的语义理解能力,尤其在中文文字生成方面表现突出,适用于广告设计、教育、儿童绘本及电商等领域。其技术架构融合扩散模型与Transformer,并采用显存优化技术提升推理效率。

SuperEdit

SuperEdit是由字节跳动与佛罗里达中央大学联合开发的图像编辑工具,基于扩散模型和优化监督信号,实现高精度的自然语言指令图像编辑。其特点包括高效训练、保留图像质量以及支持多种编辑类型。该工具适用于内容创作、影视、游戏、教育和医疗等多个领域,提供灵活且高效的图像处理方案。

PixWeaver

PixWeaver是一个基于人工智能的图像创作平台。它能帮助用户无需学习复杂的设计软件,通过语音或文字描述就可以生成理想中的图像。

Gemini Diffusion

Gemini Diffusion是谷歌推出的实验性文本扩散模型,通过逐步细化噪声生成文本,具备快速响应、生成更连贯文本和迭代细化等能力。与传统自回归模型不同,它能并行生成文本,提高效率。在外部基准测试中表现优异,速度更快,适用于内容创作、代码生成、数学问题解答和文本编辑等场景。用户需加入等待名单获取访问权限。

CineMaster

CineMaster是快手推出的3D感知视频生成框架,支持通过文本提示及深度图、相机轨迹等控制信号生成高质量视频内容。其核心功能包括3D物体与摄像机控制、交互式设计、自动化数据标注和高质量视频输出。采用两阶段工作流程与扩散模型技术,结合语义布局控制网络与摄像机适配器,提升视频生成的精确度与灵活性。适用于影视制作、广告营销、游戏开发等多个领域。

JoyVASA

JoyVASA是一个基于扩散模型的音频驱动数字人头项目,能够生成与音频同步的面部动态和头部运动。其主要功能包括唇形同步、表情控制及动物面部动画生成,支持多语言和跨物种动画化。项目采用两阶段训练方法,结合解耦面部表示与扩散模型技术,生成高质量动画视频,广泛应用于虚拟助手、娱乐媒体、教育、广告等多个领域。

AniPortrait

AniPortrait是一款由腾讯开源的AI视频生成框架,通过音频和一张参考肖像图片生成高质量的动画。该框架包含两个核心模块:Audio2Lmk模块将音频转换为2D面部标记点,而Lmk2Video模块则基于这些标记点生成连贯且逼真的视频动画。AniPortrait以其高质量的视觉效果、时间一致性和灵活的编辑能力著称,能够精确捕捉面部表情和嘴唇动作。

PixelDance

字节跳动研发的一种视频生成模型,PixelDance通过结合文本指导和首尾帧图片指导的方式,能够生成具有复杂场景与动作的视频。