模型

MinT

MinT是一款基于时间基位置编码技术的多事件视频生成框架,允许用户通过文本提示生成包含多个事件的连贯视频,并支持对事件顺序及持续时间的精确控制。其核心技术ReRoPE使得模型能够有效关联文本提示与视频帧,同时结合预训练的视频扩散变换器(DiT)和大型语言模型(LLM)的提示增强功能,进一步提升了视频生成的质量与丰富度。MinT适用于娱乐、广告、教育等多个领域,为视频创作带来了创新性的解决方案。

CoA

CoA是由谷歌开发的多智能体协作框架,用于解决大语言模型在处理长文本任务时的上下文限制问题。它将长文本分割成多个片段,由多个智能体依次处理并通过链式通信传递关键信息,最终由管理智能体整合生成结果。该框架无需额外训练,支持多种任务类型,如问答、摘要和代码补全,且具有高效性和可扩展性。其时间复杂度优化显著提升了处理长文本的效率。

Flex3D

Flex3D是一款由Meta和牛津大学联合研发的两阶段3D生成框架,通过多视图扩散模型和视图筛选机制生成高质量3D模型,支持从文本、单张图片或稀疏视图生成逼真的3D内容。其核心在于基于Transformer架构的灵活重建模型(FlexRM),结合三平面表示与3D高斯绘制技术,实现高效且详细的三维重建,广泛应用于游戏开发、AR/VR、影视制作等领域。

百川大模型

百川智能公司以帮助大众轻松、普惠地获取世界知识和专业服务为使命,致力于通过语言AI的突破,构建中国最优秀的大模型底座。

NarratoAI

NarratoAI是一款基于AI技术的影视解说和编辑工具,它利用大型语言模型(LLM)、计算机视觉和自然语言处理技术来理解视频内容,自动生成解说文案,并将文案转化为配音,同时进行视频剪辑和字幕生成。该工具支持个性化定制,可以满足不同用户的视频制作需求,简化视频制作流程,帮助非专业人士快速制作出专业水准的视频内容。

VideoLLaMA3

VideoLLaMA3 是阿里巴巴开发的多模态基础模型,支持视频与图像的深度理解和分析。基于 Qwen 2.5 架构,结合先进视觉编码器与语言生成能力,具备高效时空建模与多语言处理能力。适用于视频内容分析、视觉问答、字幕生成等场景,提供多种参数版本,支持灵活部署。

DreamO

DreamO是由字节跳动与北京大学联合开发的图像定制生成框架,基于扩散变换器(DiT)模型实现多条件图像生成。支持身份、风格、背景等条件的灵活集成,具备高质量生成、条件解耦和精准控制能力。适用于虚拟试穿、风格迁移、主体驱动生成等多种场景,具备广泛的适用性和技术先进性。

Tersa

Tersa 是一款开源免费的 AI 工作流构建平台,提供直观的拖放界面,支持 77 个主流 AI 模型,如 GPT-4o、Claude 3.5 Sonnet、DALL-E 3 和 Whisper 等,适用于文本生成、图像视频创作、音频转录和代码优化等多种任务。用户可通过拖放文件快速构建复杂流程,无需编程基础,广泛应用于内容生成、代码审查、原型开发和多模态功能集成等领域。

FlexTok

FlexTok 是由EPFL与苹果联合开发的图像处理技术,通过将图像转为离散标记序列实现高效压缩与生成。支持8K视频实时渲染,压缩率提升300%,功耗降低45%。具备无损超分辨率重建和灵活图像生成能力,适用于智能家居、安防监控及移动设备等场景。

Sweep AI

Sweep AI 是一款利用人工智能技术优化软件开发流程的工具,集成了大型语言模型与代码分析引擎,主要功能涵盖代码搜索、重构、测试生成以及文档创建等。它旨在帮助开发者提高工作效率,简化代码管理,并支持灵活定制化设置以满足不同团队的需求。