生成
Animate Anyone 2
Animate Anyone 2 是由阿里巴巴通义实验室开发的高保真角色动画生成技术,能基于输入图像和运动信号生成高质量、自然流畅的角色动画。通过环境感知、形状无关掩码策略、物体交互增强等技术,实现角色与环境的深度融合,提升动画的真实感与稳定性。支持复杂动作处理、多角色互动及跨身份动画生成,适用于影视、广告、VR/AR、游戏及教育等多个领域。
CustomCrafter
CustomCrafter是一个由腾讯和浙江大学合作开发的自定义视频生成框架,能够根据文本提示和参考图像生成高质量的个性化视频。该框架支持自定义主体身份和运动模式,具备文本提示生成视频、保留运动生成能力和概念组合能力等功能。其核心技术包括视频扩散模型、空间主题学习模块和动态加权视频采样策略等,广泛应用于影视制作、虚拟现实、游戏开发、广告营销和社交媒体内容创作等领域。
OmniConsistency
OmniConsistency 是新加坡国立大学推出的图像风格迁移模型,旨在解决复杂场景下风格化图像的一致性问题。该模型采用两阶段训练策略,将风格学习与一致性学习解耦,并支持与任意风格的 LoRA 模块集成,实现高效且灵活的风格化效果。它在多种风格下保持图像的语义、结构和细节一致性,具备更高的灵活性和泛化能力,在实验中表现出与 GPT-4o 相当的性能。
Claude 3.7 Sonnet
Claude 3.7 Sonnet 是由 Anthropic 推出的混合推理模型,支持标准模式与扩展思考模式,适用于复杂任务处理和日常交互。其在数学、物理、编程等领域表现卓越,尤其在代码生成与理解方面领先。模型优化了安全性,减少误拒率,并支持多平台接入。适用于软件开发、前端设计、科学计算及企业自动化等多个场景。
Stable Diffusion 3
Stable Diffusion 3 是一款由 Stability AI 开发的先进文本到图像生成模型,通过改进的文本渲染能力、多主题提示支持、可扩展的参数量、图像质量提升及先进的架构技术,实现了高质量和多样性的图像生成。该模型在图像生成和文本理解方面取得了显著进展,并通过 Diffusion Transformer 架构和 Flow Matching 技术提升了模型效率和图像质量。