训练

GameGen

GameGen-O 是一款基于 Transformer 架构的AI工具,专注于开放世界游戏视频的生成。它具备角色生成、环境构建、动作模拟及交互式控制等功能,通过两阶段训练方法提升了生成质量和灵活性,可应用于游戏原型设计、场景生成及开发辅助等领域,有助于降低开发成本并提高创作效率。

OLMoE

OLMoE是一款基于混合专家(MoE)架构的开源大型语言模型,具有高效的稀疏激活机制和快速训练能力。它支持自然语言理解、文本生成、多任务处理等功能,并广泛应用于聊天机器人、内容创作、情感分析和问答系统等领域,通过预训练和微调实现高精度任务执行。 ---

RSIDiff

RSIDiff 是一种基于递归自训练的文本到图像生成优化框架,通过高质量提示构建、偏好采样和分布加权机制,提升图像质量和与人类偏好的对齐度,减少训练崩溃风险。它具备自演化能力,降低对大规模数据的依赖,广泛应用于艺术创作、广告设计、VR/AR、游戏开发等领域。

ChatLearn

ChatLearn是一款由阿里云开发的高效对齐训练框架,支持多种对齐训练方法,包括RLHF、DPO、OnlineDPO和GRPO。它提供灵活的编程接口、资源调度机制和分布式计算支持,适用于自动化对话系统训练及复杂多模型训练场景。用户可以自定义模型执行流程,实现个性化训练策略。

Uthana

Uthana是一款基于AI的3D角色动画生成平台,支持通过文字描述、参考视频或动作库快速生成逼真动画。其核心功能包括动作搜索、骨骼适配、风格迁移、API集成等,适用于游戏开发、影视制作、虚拟角色设计等多个领域。平台提供灵活的输出格式和编辑工具,帮助用户高效完成动画创作。

ImagePulse

ImagePulse是由魔搭社区推出的开源项目,专注于图像理解和生成模型的数据集支持。它通过将复杂任务拆解为“修改、添加、移除”“风格迁移”“人脸保持”等原子能力,构建专门的数据集,提升模型在特定任务上的性能。项目提供开源脚本,支持数据集的生成与扩展,并结合多种技术资源实现多模型协同,适用于艺术创作、视频制作、产品展示等多个领域。

V-JEPA

创新的自监督学习模型,它通过预测视频帧的特征表示来学习视频的视觉表示。这种方法不仅能够处理视频内容,还能在图像任务上表现出色,具有广泛的应用潜力。

Tarsier2

Tarsier2是字节跳动研发的大规模视觉语言模型,擅长生成高精度视频描述并在多项视频理解任务中表现优异。其核心技术包括大规模数据预训练、细粒度时间对齐微调以及直接偏好优化(DPO)。该模型在视频问答、定位、幻觉检测及具身问答等任务中均取得领先成绩,支持多语言处理,具有广泛的应用潜力。

MinT

MinT是一款基于时间基位置编码技术的多事件视频生成框架,允许用户通过文本提示生成包含多个事件的连贯视频,并支持对事件顺序及持续时间的精确控制。其核心技术ReRoPE使得模型能够有效关联文本提示与视频帧,同时结合预训练的视频扩散变换器(DiT)和大型语言模型(LLM)的提示增强功能,进一步提升了视频生成的质量与丰富度。MinT适用于娱乐、广告、教育等多个领域,为视频创作带来了创新性的解决方案。

VideoVAE+

VideoVAE+是一种由香港科技大学研发的跨模态视频变分自编码器,具备时空分离压缩和文本指导功能。它通过分离空间与时间信息处理,有效减少运动伪影,同时利用文本嵌入增强细节重建能力。VideoVAE+在视频重建质量上超越现有模型,支持高保真与跨模态重建,适用于视频压缩、影视后期制作及在线教育等多个领域。