清华大学

TIGER

TIGER是由清华大学研发的轻量级语音分离模型,采用时频交叉建模策略与多尺度注意力机制,有效提升语音分离性能,同时显著降低计算和参数开销。模型通过频带切分优化资源利用,适应复杂声学环境,广泛应用于会议记录、视频剪辑、电影音频处理及智能语音助手等领域。

Dolphin

Dolphin是由清华大学与海天瑞声联合开发的面向东方语言的语音识别大模型,支持40种语言及22种中文方言,具备高精度语音转文字能力。采用CTC-Attention架构,结合E-Branchformer和Transformer技术,提升识别效率与准确性。模型开源,支持自定义语言与地区设置,适用于会议记录、语音输入、智能助手等多种场景。

UniRig

UniRig是由清华大学计算机系与VAST联合开发的自动骨骼绑定框架,基于自回归模型和交叉注意力机制,可高效生成高质量骨骼结构和蒙皮权重。其支持多种3D模型类型,涵盖动漫角色、有机与无机结构等,广泛应用于动画制作、游戏开发、虚拟角色设计等领域。项目提供开源代码和详细文档,助力提升3D动画制作效率与质量。

灵动音DeepMusic

灵动音DeepMusic致力于通过AI词曲编录混技术,全方位降低音乐创作制作门槛并提升效率,为音乐行业提供新的产品体验和解决方案。

爱校对

爱校对,免费高效的错别字检查工具,来自清华大学人机交互实验室,提供智能校对、

反向词典WantWords

WantWords可以通过描述意思来查找词语,唯一支持中文及中英跨语言查询的反向词典系统。

深言达意

深言达意是一款可根据模糊描述,找词找句的Ai写作工具。核心功能包括据意查词、据意查句。根据模糊的描述,找到贴切的词语和名言佳句,支持汉英双语。深言达意基于先进的人工智能算法实现。

DreamTalk

一个由清华大学、阿里巴巴和华中科大共同开发的一个基于扩散模型可以让人物照片说话,支持包括歌曲、多种语言的语音、嘈杂的音频在内的各种声音匹配让人物头像说话的框架。

CogVideo

目前最大的通用领域文本生成视频预训练模型,含94亿参数。CogVideo将预训练文本到图像生成模型(CogView2)有效地利用到文本到视频生成模型,并使用了多帧率分层训练策略。

千影QianYing

巨人网络发布的有声游戏生成大模型,主要包括游戏视频生成大模型YingGame和视频配音大模型YingSound。