稳定

Stable Diffusion-AI辅助设计

64课时带领大家系统完成SD的全流程学习,并精讲一款让SD从玩具升级到强大生产力工具的热门插件—ControlNet的使用。

Hulu AI

一个GPT、文心一言、Midjourney和Dall-E对话作图可以永久、不限次数使用的工具,Hulu AI会根据用户的需求,不断更新上线新的功能,比如图片解析、图片融合等等常用功能。

EMO

EMO通过其先进的音频驱动视频生成技术,为用户带来了一种创新的方式来创造个性化和富有表现力的视频内容。它不仅能够生成逼真的面部表情,还能根据音频内容自然地驱动头部动作,为...

Topaz Video AI

Topaz Video AI是Topazlabs最新推出的一款视频处理AI软件,可以将视频分辨率提升到4K/8K甚至16K分辨率。该软件使用了24种时序感知AI模型,经过训练,专门用于升级、增强、稳定和平...

StreamMultiDiffusion

StreamMultiDiffusion是一款开源的实时交互式图像生成框架,结合了扩散模型的高质量图像合成能力和区域控制的灵活性。用户可以实时生成和编辑图像,通过文本提示和手绘区域生成特定部分的图像,提供高质量的图像输出。其主要功能包括实时图像生成、指定区域文本到图像生成、直观的用户界面、多提示流批处理架构、快速推理技术、区域控制、稳定化技术和Semantic Palette交互式图像生成。

ScribbleDiff

ScribbleDiff是一种创新的文本到图像生成技术,通过涂鸦分析和传播算法,将用户简单的涂鸦转换为高质量的图像。其核心技术包括矩对齐和涂鸦传播,确保生成图像的方向一致性与细节完整性。ScribbleDiff支持多种应用场景,如艺术创作、游戏开发、教育、广告设计和UI/UX设计,为用户提供直观、高效且无须额外训练的图像生成体验。

AnimateAnything

AnimateAnything是一项由浙江大学与北京航空航天大学联合研发的统一可控视频生成技术。它能够根据相机轨迹、文本提示及用户动作注释等多样化控制信号生成高质量视频,并通过多尺度特征融合网络将这些信号转化为逐帧光流进行精准引导。此外,为解决大范围运动带来的视频闪烁问题,该技术采用了基于频率的稳定模块,显著增强了视频的时间稳定性。主要应用于影视制作、虚拟现实、游戏开发以及教育培训等多个领域。

ViewExtrapolator

ViewExtrapolator是一种基于稳定视频扩散(SVD)的新视角外推方法,能够生成超出训练视图范围的新视角图像,特别适用于提升3D渲染质量和视觉真实性。该工具通过优化SVD的去噪过程,减少了伪影问题,同时支持多视图一致性生成,无需额外微调即可实现高效的数据和计算性能,广泛适用于虚拟现实、3D内容创作及文物保护等多个领域。

HiFiVFS

HiFiVFS是一款基于Stable Video Diffusion框架的高保真视频换脸工具,结合多帧输入与时间注意力机制保障视频稳定性。其核心技术包括细粒度属性学习(FAL)和详细身份学习(DIL),分别用于属性解耦和身份相似性提升。HiFiVFS适用于电影制作、游戏开发、虚拟现实及社交媒体等多个领域,支持高质量的视频换脸操作。

SVFR

SVFR是一款由腾讯优图实验室与厦门大学联合开发的视频人脸修复框架,能够统一处理视频中的人脸修复、着色和缺失区域补全任务。基于Stable Video Diffusion模型,结合任务嵌入、统一潜在正则化等技术,提升修复精度与时间稳定性。适用于影视后期、网络视频制作及数字档案修复等领域,具有广泛的应用价值。