扩散模型

GCDance

GCDance是一款由英国萨里大学与江南大学联合开发的3D舞蹈生成框架,可根据音乐和文本提示生成风格可控的全身舞蹈序列。它结合多粒度音乐特征融合与CLIP模型文本嵌入技术,实现舞蹈动作与音乐节奏的高度同步。支持多种舞蹈风格生成、局部编辑及高质量全身动作输出,适用于VR、游戏开发、舞蹈教学等场景。

MagicTailor

MagicTailor 是一款基于 DM-Deg 和 DS-Bal 技术的新型 AI 工具,支持组件可控的个性化图像生成。它能够动态干扰不需要的视觉语义,平衡概念与组件的学习,从而显著提升生成图像的质量和控制精度。MagicTailor 的核心功能包括组件可控个性化、动态掩码退化、双流平衡、解耦生成及多组件控制,适用于广告、游戏、电影制作等多个领域。

MagicQuill

MagicQuill是一款基于AI的开源图像编辑工具,提供智能化的局部编辑功能。其核心功能包括AI驱动的智能建议、精确的像素级编辑(如添加、删除和颜色调整),以及多种定制化工具(如添加笔刷、减去笔刷和颜色笔刷)。此外,它还具备实时意图预测和参数调整能力,支持多模态大语言模型和扩散模型的协作,适用于个人娱乐、教育、专业设计及商业应用等多个领域。

LineArt

LineArt是一种无需训练的高质量设计绘图外观迁移框架,能将复杂外观特征准确转移到设计图纸上,同时保留结构细节。其技术基于模拟人类视觉认知过程,结合艺术经验指导扩散模型,支持工业设计、室内设计、服装设计等多个领域应用。具备高效、高保真和易用性等特点,适用于快速生成逼真效果和优化设计流程。

Diffutoon

Diffutoon是一款基于扩散模型的AI框架,旨在将现实风格的视频转换为动漫风格。该框架支持高分辨率视频处理,能够实现风格化、一致性增强、结构引导和自动着色等功能。此外,Diffutoon具备内容编辑功能,用户可通过文本提示调整视频细节,确保视觉效果和内容的一致性。

Animate Anyone 2

Animate Anyone 2 是由阿里巴巴通义实验室开发的高保真角色动画生成技术,能基于输入图像和运动信号生成高质量、自然流畅的角色动画。通过环境感知、形状无关掩码策略、物体交互增强等技术,实现角色与环境的深度融合,提升动画的真实感与稳定性。支持复杂动作处理、多角色互动及跨身份动画生成,适用于影视、广告、VR/AR、游戏及教育等多个领域。

AnchorCrafter

AnchorCrafter是一款基于扩散模型的智能视频生成工具,利用人-物交互(HOI)技术生成高质量主播风格产品推广视频。它支持物体外观保持、运动控制、遮挡处理及细节增强学习,适用于在线购物、社交媒体营销、电视广告制作等多个领域,显著提升视频真实感和互动性。

HiCo

HiCo是一款基于扩散模型的层次化可控布局到图像生成工具,采用多分支结构设计,能够精确控制对象的位置和文本描述,解决复杂布局中的常见问题。该工具支持高分辨率图像生成,兼容多种快速生成插件,并在多目标布局生成任务中表现出色,适用于图像编辑、游戏设计、虚拟现实等多个领域。

BAG

BAG是一项由香港中文大学与腾讯联合研发的3D可穿戴资产生成技术,结合多视图图像扩散模型与控制网络,根据人体形状和姿态信息生成高质量的服装和配饰。该技术具备高效适配、多样化生成和物理模拟优化等特点,广泛应用于虚拟试衣、游戏开发、VR/AR及时尚设计等领域,有效提升用户体验与设计效率。

ChatDLM

ChatDLM是由Qafind Labs开发的高效扩散语言模型,结合区块扩散与专家混合技术,具备7B参数规模,推理速度达2800 tokens/s,支持131,072 tokens的超长上下文处理。其核心优势包括高效文本生成、可控生成与局部修复、资源高效性及动态优化能力。适用于多轮对话、实时情绪监测、长文档创作及学术研究等场景,支持垂直领域知识召回率提升至95.6%。