模型

SUPIR

SUPIR是一种创新的图像修复和画质增强方法,基于大规模生成模型StableDiffusion-XL(SDXL)和模型扩展技术。它通过深度学习和多模态方法实现低质量图像的高质量恢复,支持通过文本提示进行图像恢复的精细控制。SUPIR适用于多种应用场景,如老照片修复、模糊图像增强、噪点去除和色彩校正与增强。

HunyuanVideo

HunyuanVideo是一款由腾讯开源的视频生成模型,具备130亿参数量,支持物理模拟、高文本语义还原、动作一致性和电影级画质等功能。它通过时空压缩的潜在空间训练,融合Causal 3D VAE与Transformer架构,实现图像和视频的统一生成,广泛应用于电影制作、音乐视频创作、游戏开发以及教育等领域。

MMaDA

MMaDA(Multimodal Large Diffusion Language Models)是由普林斯顿大学、清华大学、北京大学和字节跳动联合开发的多模态扩散模型,支持跨文本推理、多模态理解和文本到图像生成等多种功能。其采用统一的扩散架构和模态不可知设计,结合混合长链推理微调策略与UniGRPO强化学习算法,提升跨模态任务性能。MMaDA在多项任务中表现优异,适用于内容创作、教育辅助、智能客

Flow

Flow是谷歌推出的AI电影制作工具,整合了Veo 3、Imagen 4和Gemini 2.5等多个AI模型,能根据文本提示生成完整的电影场景或短片,保持连贯性。用户可通过“Camera Controls”操作镜头,“Scenebuilder”编辑场景,“Asset Management”管理创意元素,并通过“Flow TV”学习交流。目前仅对美国的谷歌AI Pro和AI Ultra订阅用户开放。

AvatarGO

AvatarGO是由南洋理工大学、上海AI Lab和香港大学联合开发的AI框架,能够根据文本描述生成高质量的4D人体与物体交互场景。其核心在于利用LLM引导的接触重定位、空间感知的分数蒸馏采样和运动优化技术,实现精确的接触识别与动画生成,有效解决穿透问题。支持多种人物与物体组合,适用于虚拟导购、展厅讲解、VR/AR内容创作等多个领域。

HourVideo

HourVideo是一项由斯坦福大学研发的长视频理解基准数据集,包含500个第一人称视角视频,涵盖77种日常活动,支持多模态模型的评估。数据集通过总结、感知、视觉推理和导航等任务,测试模型对长时间视频内容的信息识别与综合能力,推动长视频理解技术的发展。其高质量的问题生成流程和多阶段优化机制,使其成为学术研究的重要工具。

HoloTime

HoloTime 是由北京大学深圳研究生院与鹏城实验室联合开发的全景 4D 场景生成框架,可将单张全景图像转化为动态视频,并进一步重建为沉浸式 4D 场景。其核心技术包括全景动画生成器(Panoramic Animator)和时空重建技术,结合 360World 数据集进行训练,实现高质量的视频生成与场景重建。该工具支持 VR/AR 应用,适用于虚拟旅游、影视制作、游戏开发等多个领域,提供高效的沉

Pixelhunter

Pixelhunter 是一个可让您从 2D 图像创建逼真的 3D 模型的平台。您可以上传任何照片并在几分钟内获得高质量的 3D 模型。

Imagen 4

Imagen 4是谷歌推出的最新图像生成AI模型,支持高达2K分辨率的图像生成,具备出色的细节呈现能力,可清晰展示复杂织物纹理、水滴折射及动物毛发质感。其文本渲染能力显著提升,适合广告、漫画等设计场景。支持多种艺术风格,包括超现实、抽象、插图和摄影,满足多样化创作需求。同时,Imagen 4拥有快速生成模式和高效的特征蒸馏技术,提升了生成速度,并已集成到Gemini应用、Google Worksp

6pen pro

整合最新AI技术,为有深度需求的用户打造更专业的内容创作体验,提供内容库、AI生成器等专业化功能,助您轻松创造令人惊叹的多媒体内容。