模型

SeedFoley

SeedFoley 是由字节跳动开发的端到端视频音效生成模型,能智能识别并生成与视频内容高度同步的动作和环境音效。通过融合视频时空特征与扩散生成技术,提升音效的准确性和细腻度,支持多种视频长度,适用于生活Vlog、短片制作、游戏视频等多种场景,显著提升视频的沉浸感和表现力。

START

START是由阿里巴巴集团与中科大联合研发的工具增强型推理模型,通过集成外部工具(如Python代码执行器)提升大型语言模型的推理能力。其核心在于“Hint-infer”和“Hint-RFT”技术,结合长链推理与工具调用,显著提高复杂数学、科学问题及编程任务的准确性和效率。该模型具备自我调试、多策略探索和自学习能力,适用于科研、教育、编程等多个领域,是首个开源的长链推理与工具集成模型。

TrajectoryCrafter

TrajectoryCrafter是一种基于双流条件视频扩散模型的单目视频相机轨迹重定向工具,支持用户自定义相机运动路径并生成高质量、4D一致的视频内容。其核心技术包括解耦视图变换与内容生成、动态点云渲染以及混合数据集训练策略,具备强大的场景泛化能力。适用于沉浸式娱乐、视频创作、智能会议、自动驾驶及教育等多个领域。

VideoPainter

VideoPainter是由多所高校及科研机构联合开发的视频修复与编辑框架,采用双分支架构,结合轻量级上下文编码器和扩散模型,实现高效背景保留与前景生成。支持插件式操作,具备长视频对象一致性维持能力,并构建了大规模视频修复数据集,广泛应用于影视、广告、教育等领域。

COMET

COMET是字节跳动开发的Mixture-of-Experts(MoE)模型优化系统,通过细粒度计算-通信重叠技术和自适应负载分配机制,显著提升分布式训练效率。它在大规模模型中实现单层1.96倍、端到端1.71倍的加速,具备强鲁棒性与泛化能力,支持多种硬件环境和并行策略,核心代码已开源并可无缝集成至主流训练框架。

FoxBrain

FoxBrain是由鸿海研究院推出的大型语言模型,基于Meta Llama 3.1架构,拥有70B参数,专注于数学与逻辑推理领域。其采用高效训练策略,结合高质量中文数据与Adaptive Reasoning Reflection技术,提升推理能力。FoxBrain适用于智能制造、智慧教育、智能办公等多个场景,支持数据分析、代码生成、文书协作等功能,具备较强的上下文处理能力和稳定性。

LanDiff

LanDiff是一种结合自回归语言模型和扩散模型的文本到视频生成框架,采用粗到细的生成策略,有效提升语义理解与视觉质量。其核心功能包括高效语义压缩、高质量视频生成、语义一致性保障及灵活控制能力。支持长视频生成,降低计算成本,适用于视频制作、VR/AR、教育及社交媒体等多个领域。

IMAGPose

IMAGPose是由南京理工大学开发的统一条件框架,用于人体姿态引导的图像生成。其核心功能包括多场景适应、细节与语义融合、灵活对齐及全局一致性保障。通过FLC、ILC和CVA模块,解决了传统方法在生成多样姿态图像时的局限性,适用于虚拟现实、影视制作、电商展示等多个领域。

DoraCycle

DoraCycle是由新加坡国立大学Show Lab开发的一种多模态生成模型,通过文本与图像间的双向循环一致性学习,实现跨模态信息转换与对齐。其核心优势在于无需大量标注数据即可完成领域适应,支持风格化设计、虚拟角色生成等多样化任务。模型采用自监督学习和梯度裁剪等技术提升训练稳定性,适用于广告、教育等多个应用场景。

GO

GO-1是智元机器人推出的首个通用具身基座模型,采用ViLLA架构,结合多模态大模型与混合专家系统,具备场景感知、动作理解和精细执行能力。支持小样本快速泛化、跨本体部署与持续进化,广泛应用于零售、制造、家庭及科研等领域,推动具身智能技术发展。