建模

Unique3D

Unique3D是一款由清华大学团队开发的开源框架,专注于单张图像到3D模型的转换。它利用多视图扩散模型和法线扩散模型,结合多级上采样策略和ISOMER算法,能够在短时间内生成高保真度且纹理丰富的3D网格模型。Unique3D能够从单个2D图像生成3D网格模型、多个正交视图图像和法线贴图,并通过多级上采样过程提高图像分辨率,最终实现颜色和几何细节的高度整合。

Odyssey

Odyssey是一款先进的AI视频生成和编辑工具,通过四个专门训练的高级生成模型,实现高质量的三维几何图形、逼真材质、震撼光照效果及动态动作控制。该工具旨在革新电影、电视和视频游戏的制作方式,提升创作效率,同时保证作品的高质量和艺术性。适用于电影制作人、游戏开发者、视频内容创作者、动画师和视觉效果艺术家。

IMAGDressing

IMAGDressing是一款由华为与腾讯合作开发的AI换衣工具,支持用户通过模块化方式设计服装并在虚拟环境中试穿。该工具集成了多种先进技术,包括3D建模、图形渲染、物理模拟、用户交互、机器学习和虚拟现实技术,能够实现高度逼真的虚拟试衣效果。IMAGDressing适用于电子商务、时尚设计、虚拟时尚秀和社交媒体等多种应用场景,能够提高用户体验和工作效率。

HeadGAP

HeadGAP是一款由字节跳动和上海科技大学联合研发的3D头像生成模型。该模型利用少量图片即可生成高度逼真的3D头像,具备高保真度、动画鲁棒性和多视图一致性等特点。HeadGAP通过先验学习、高斯Splatting网络、身份共享编码及部分动态建模等技术,实现了逼真的3D头像生成,并适用于虚拟社交、游戏开发、电影和动画制作等多种应用场景。

Omages

Omages是一个开源的3D模型生成项目,基于图像扩散技术将3D形状的几何和纹理信息编码到64×64像素的2D图像中。该工具不仅提高了3D对象生成的效率,还在低分辨率下保留丰富的细节。Omages支持3D对象生成、几何和纹理编码、多图谱表示以及自动材质生成等功能。它适用于3D打印与制造、虚拟现实、增强现实、游戏开发、电影和动画制作及室内设计等多种应用场景。

VFusion3D

VFusion3D 是一个由Meta和牛津大学研究团队共同开发的AI生成3D模型工具,可以从单张图片或文本描述生成高质量的3D对象。它通过微调预训练的视频AI模型生成合成的3D数据,解决了3D训练数据稀缺的问题。该工具具备快速生成3D模型、多视角渲染、高质量输出等功能,并广泛应用于虚拟现实、游戏开发、电影制作和3D打印等领域。

Video

Video-LLaVA2是一款由北京大学ChatLaw课题组开发的开源多模态智能理解系统。该系统通过时空卷积(STC)连接器和音频分支,显著提升了视频和音频的理解能力。其主要功能包括视频理解、音频理解、多模态交互、视频问答和视频字幕生成。时空建模和双分支框架是其核心技术原理。Video-LLaVA2广泛应用于视频内容分析、视频字幕生成、视频问答系统、视频搜索和检索、视频监控分析及自动驾驶等领域。

OmniCorpus

OmniCorpus是上海人工智能实验室联合多家知名高校和研究机构共同创建的一个大规模多模态数据集,包含86亿张图像和16960亿个文本标记,支持中英双语。它通过整合来自网站和视频平台的文本和视觉内容,提供了丰富的数据多样性。OmniCorpus不仅规模庞大,而且数据质量高,适合多模态机器学习模型的训练和研究。它广泛应用于图像识别、视觉问答、图像描述生成和内容推荐系统等领域。

OpenCity

OpenCity是一个由香港大学联合华南理工大学和百度共同研发的交通预测模型。该模型采用了Transformer架构和图神经网络,通过大规模预训练学习交通数据中的时空依赖关系,具有卓越的零样本预测能力和快速情境适应能力。OpenCity能够有效处理不同空间区域和时间的城市交通模式,并具备良好的可扩展性。其应用场景包括交通流量预测、交通拥堵分析、公共交通优化以及智能交通信号控制等。

Mini

Mini-Omni 是一个开源的端到端语音对话模型,具备实时语音输入和输出的能力,能在对话中实现“边思考边说话”的功能。模型设计无需额外的自动语音识别(ASR)或文本到语音(TTS)系统,直接进行语音到语音的对话。Mini-Omni 采用文本指导的语音生成方法,通过批量并行策略提高性能,同时保持了原始模型的语言能力。它支持实时语音交互、文本和语音并行生成、跨模态理解等功能,适用于智能助手、客户服务