Diffusion
Large Motion Model
Large Motion Model(LMM)是一款由新加坡南洋理工大学S-Lab和商汤科技合作研发的多模态运动生成框架。它支持从文本、音乐等多种模态生成逼真运动序列,具备高度精准的身体部位控制能力和强大的泛化能力。通过整合多样化的MotionVerse数据集以及创新性的ArtAttention机制和预训练策略,LMM在多个领域展现出高效的应用潜力,包括动画、虚拟现实、影视特效及运动分析等。
PixVerse V2
PixVerse V2是一款基于Diffusion+Transformer(DiT)架构并结合自研时空注意力机制的AI视频生成工具。它支持生成长度可达40秒的视频,单个片段最长可达8秒,且能保持视频片段间的一致性。用户可通过简单操作生成并编辑视频,适用于创意专业人士、社交媒体用户、企业营销人员及独立艺术家等多种人群。
SmoothCache
SmoothCache是一种针对Diffusion Transformers(DiT)模型的推理加速技术,通过分析层输出的相似性实现自适应缓存和特征重用,有效减少计算成本并提升生成效率。该技术具有模型无关性、跨模态适用性和易于集成的特点,支持图像、视频、音频及3D模型生成,并在多种应用场景中展现出卓越的性能表现。
TryOffAnyone
TryOffAnyone是一款基于Latent Diffusion Models技术的AI工具,专注于从人物照片中提取服装区域并生成平铺展示图。它具备在线图片处理、智能服装识别、背景去除和图像优化等功能,广泛应用于电商平台的商品展示、个性化推荐、库存管理和图像检索等领域,帮助提升用户体验和运营效率。
Shakker AI
一个专注于AI图像生成和编辑的在线平台,Shakker AI汇集了数千个高质量的Stable Diffusion模型,利用稳定扩散模型为用户提供高质量的图像和视频生成服务。