模型

Pippo

Pippo是由Meta Reality Labs研发的图像到视频生成模型,可基于单张照片生成多视角高清人像视频。采用多视角扩散变换器架构,结合ControlMLP模块与注意力偏差技术,实现更丰富的视角生成和更高的3D一致性。支持高分辨率输出及细节自动补全,适用于虚拟现实、影视制作、游戏开发等多个领域。技术方案涵盖多阶段训练流程,确保生成质量与稳定性。

TokenFlow

一个利用预训练的文本到图像扩散模型进行视频编辑的框架。它无需进一步训练或微调,即可实现一致的视频编辑效果。

STIV

STIV是一款由苹果公司开发的视频生成大模型,具有8.7亿参数,擅长文本到视频(T2V)及文本图像到视频(TI2V)任务。它通过联合图像-文本分类器自由引导(JIT-CFG)技术提升生成质量,并结合时空注意力机制、旋转位置编码(RoPE)及流匹配训练目标优化性能。STIV支持多种应用场景,包括视频预测、帧插值、长视频生成等,适用于娱乐、教育、广告及自动驾驶等多个领域。

NextAI整理全球AI项目库

NextAI整理全球AI项目库,包括AI变现: 如何利用AI搞钱、推荐课、Prompt提示词网站、AI学习文章和资料、AI工具汇总&报告收集、国内干模大战申请链接、AI部署公益咨询

RuoYi AI

RuoYi AI 是一个集成了本地 RAG 方案和多模型支持的全栈式 AI 开发平台,提供高效的代码管理、数据隐私保护和丰富的多媒体功能。支持多种大语言模型接入,具备微信扩展、插件系统和支付接口,适用于企业及个人开发者构建智能应用。

FlowiseAI

FlowiseAI 是一款开源的低代码 AI 工具,允许用户通过可视化拖拽方式快速构建大型语言模型应用。支持多模型集成、对话记忆、API 接口等功能,适用于聊天机器人、工作流自动化和文档问答等多种场景。提供本地、Docker 和云平台部署方式,适合开发者和企业用户进行灵活应用开发。

OpenAI o1模型

OpenAI的最新推理系列AI大模型“Strawberry”,包括“o1-preview”和成本较低的“o1 mini”版本。该模型通过强化学习训练,具备复杂的推理能力和多模态理解能力。它采用了“思维链”机制,增强推理透明度,具备自我纠错功能。在国际数学奥林匹克等基准测试中表现出色,展现出强大的性能。设计时考虑了安全性、可靠性和成本效率。 ---

EMO2

EMO2是一种由阿里巴巴智能计算研究院开发的音频驱动头像视频生成技术,通过音频输入和静态人像照片生成高质量、富有表现力的动态视频。其核心技术包括音频与手部动作的协同建模、扩散模型生成视频帧,以及高精度音频同步。该工具支持多样化动作生成,适用于虚拟现实、动画制作和跨语言内容创作等场景,具备自然流畅的视觉效果和丰富的应用场景。

Diffusion Self

Diffusion Self-Distillation (DSD) 是一种基于预训练文本到图像扩散模型的零样本定制图像生成技术,通过自动生成数据集并微调模型,支持文本条件下的图像到图像转换任务。其核心在于利用生成图像网格与视觉语言模型筛选高质量配对数据集,实现无需人工干预的身份保持定制化图像生成。该技术广泛应用于艺术创作、游戏开发、影视制作、广告营销及个性化商品等领域。