模型

Fineshare VoiceTrans

Fineshare VoiceTrans 是一款支持实时变声的 AI 工具,可将声音转换为多种角色或性别,保留原有情感与语调。提供丰富的音效库、声音实验室和预设声音包,适用于游戏、直播、配音等场景。用户可通过不同订阅计划获得无限使用权限和定制服务,提升创作与互动体验。

TransPixar

TransPixar是由多所高校及研究机构联合开发的开源文本到视频生成工具,基于扩散变换器(DiT)架构,支持生成包含透明度信息的RGBA视频。该技术通过alpha通道生成、LoRA微调和注意力机制优化,实现高质量、多样化的视频内容生成。适用于影视特效、广告制作、教育演示及虚拟现实等多个领域,为视觉内容创作提供高效解决方案。

MultiBooth

MultiBooth是一种由多所高校和研究机构联合开发的多概念图像生成工具,能够根据文本提示生成包含多个指定概念的高质量图像。其核心技术包括单概念学习和多概念整合,采用多模态编码器、自适应归一化和区域定制化模块,实现高效、精准的图像生成。支持插件式架构,具备良好的扩展性和灵活性,适用于创意设计、广告、教育、电商及科研等多个领域。

Ingredients

Ingredients是一款基于多身份图像与视频扩散Transformer的视频生成框架,支持多身份特征的高效整合与动态分配。其核心模块包括面部提取器、多尺度投影器和ID路由器,能够保持身份一致性并生成高质量视频内容。无需额外训练即可实现个性化视频制作,适用于娱乐、广告、教育等多个领域。

EnerVerse

EnerVerse是由智元机器人团队开发的首个机器人4D世界模型,基于自回归扩散模型与稀疏记忆机制,实现未来具身空间的高效生成与动作规划。其核心技术包括逐块生成、时空注意力UNet结构、自由锚定视角(FAV)及Diffusion策略头,显著提升机器人在复杂任务中的表现。该模型已在自动驾驶、工业装配、医疗辅助等多个领域展现出广泛应用潜力。

Live3D

Live3D是一款面向虚拟主播(VTuber)的综合工具套件,提供面部追踪、3D形象定制、动画制作及直播互动等功能。其包含VTuber Maker、Editor、Gallery等组件,支持手部追踪、VRM模型编辑及AI动作捕捉,适用于虚拟直播、内容创作、在线教育等多种场景。该工具具备丰富的资源库和持续更新机制,适合个人与专业创作者使用。

AutoDroid

AutoDroid-V2是由清华大学人工智能产业研究院开发的基于小型语言模型(SLM)的移动端GUI自动化工具,支持多步脚本生成与执行,提升任务完成效率并减少对云端模型的依赖。其核心功能包括自动化UI操作、代码生成与执行、应用文档生成,适用于日常辅助、办公、测试、智能家居及医疗等多个场景,具有较高的实用性和技术前瞻性。

SeedVR

SeedVR是由南洋理工大学与字节跳动联合开发的视频修复模型,采用移位窗口注意力机制和因果视频变分自编码器,实现高质量、高效率的视频修复。支持任意长度和分辨率的视频处理,生成具有真实感细节的修复结果,适用于影视修复、广告制作、监控视频优化等多个场景。其处理速度优于现有方法,具备良好的实用性与扩展性。

LIGER

LIGER是一种由Meta AI等机构研发的混合检索模型,结合生成式检索与密集检索技术,提升推荐系统的效率与准确性。其核心功能包括高效生成候选项目、优化排序、处理冷启动问题及融合语义信息。LIGER通过多目标优化和语义融合机制,显著提高了推荐的精准度与适应性,广泛应用于电商、内容、社交及教育等领域。

SPRIGHT

SPRIGHT是由多所高校和机构联合开发的视觉-语言数据集,旨在提升文本到图像生成模型的空间一致性。通过重新描述约600万张图像,强化空间关系表达,如“左/右”、“上/下”等,显著提高图像生成的准确性。该数据集支持复杂场景的图像生成,并经过多维度评估验证其可靠性。SPRIGHT为视觉-语言模型的研究和应用提供了重要资源,广泛应用于图像生成、VR/AR、教育及科研等领域。