3D

Neural4D 2o

Neural4D 2o 是一款基于多模态数据训练的 3D 大模型,支持文本、图像、3D 和运动数据输入,实现高精度的 3D 内容生成与编辑。具备上下文一致性、角色身份保持、换装和风格迁移等功能,支持自然语言指令操作。采用 Transformer 编码器与 3D DiT 解码器架构,原生兼容 MCP 协议,提升创作效率与交互体验,适用于 3D 内容创作、游戏开发、影视动画等多个领域。

BlenderMCP

BlenderMCP 是一款将 Blender 与 Claude AI 集成的工具,通过 socket 服务器实现双向通信,支持 3D 对象操作、材质控制、场景信息获取及 Python 代码执行。用户可通过自然语言指令高效完成建模任务,提升创作效率。工具由插件和服务器组成,采用 JSON 协议进行数据交互,适用于快速建模、场景优化及教育辅助等场景。

UniRig

UniRig是由清华大学计算机系与VAST联合开发的自动骨骼绑定框架,基于自回归模型和交叉注意力机制,可高效生成高质量骨骼结构和蒙皮权重。其支持多种3D模型类型,涵盖动漫角色、有机与无机结构等,广泛应用于动画制作、游戏开发、虚拟角色设计等领域。项目提供开源代码和详细文档,助力提升3D动画制作效率与质量。

HoloPart

HoloPart 是一种基于扩散模型的 3D 分割工具,能准确识别并补全被遮挡的语义部件,支持几何与材质编辑等任务。其两阶段方法结合局部与全局注意力机制,提升分割精度与一致性。适用于动画制作、几何优化及数据生成等领域,已在多个数据集上取得优异性能。

Krea Stage

Krea Stage 是一款基于 AI 技术的工具,能够将 2D 图像快速转换为可编辑的 3D 场景,并支持视频生成。用户可通过直观界面实时调整物体、光影和视角,无需专业建模知识。适用于影视、游戏、艺术、VR 和广告等多个领域,提升了 3D 内容创作的效率和灵活性。

OmniCam

OmniCam 是一种基于多模态输入的高级视频生成框架,结合大型语言模型与视频扩散模型,实现高质量、时空一致的视频内容生成。支持文本、视频或图像作为输入,精确控制摄像机运动轨迹,具备帧级操作、复合运动、速度调节等功能。采用三阶段训练策略提升生成效果,并引入 OmniTr 数据集增强模型性能。适用于影视、广告、教育及安防等多个领域,提高视频创作效率与质量。

WorldScore

WorldScore是由斯坦福大学推出的统一世界生成模型评估基准,支持3D、4D、图像到视频(I2V)和文本到视频(T2V)等多种模态。它从可控性、质量和动态性三个维度进行评估,涵盖3000个测试样本,包括静态与动态、室内与室外、逼真与风格化等多种场景。WorldScore具备多场景生成、长序列支持、图像条件生成、多风格适配等功能,适用于图像到视频、图像到3D生成以及自动驾驶场景模拟等应用,为研究

Amodal3R

Amodal3R 是一种基于条件的 3D 生成模型,能够从部分遮挡的 2D 图像中重建完整的 3D 模型。通过引入掩码加权多头交叉注意力机制和遮挡感知注意力层,提升了遮挡场景下的重建精度。该模型仅使用合成数据训练,却能在真实场景中表现出色,具有较强的泛化能力。广泛应用于 AR/VR、机器人视觉、自动驾驶及 3D 资产创建等领域。

Style3D Ai

Style3D AI 是一款面向时尚行业的AI设计与生产工具,支持通过草图、文字或参考图生成可生产的服装款式,具备3D设计、面料替换、自动缝合、BOM生成及智能商拍等功能。平台提供丰富的流行轮廓和资源库,助力企业提高设计效率、缩短生产周期,实现从设计到生产的全流程数字化管理。

Hi3DGen

Hi3DGen是由多所高校与企业联合开发的高保真3D几何生成框架,可从2D图像生成具有丰富细节的3D模型。其核心技术包括图像到法线估计、法线到几何学习及3D数据合成,采用两阶段生成流程并结合3D高斯散射与SDF重建技术,提升模型精度与细节表现。适用于游戏开发、影视制作、3D可视化等多个领域。