文本到图像

Anifusion

Anifusion是一款基于人工智能技术的在线漫画与动漫图片生成平台,允许用户通过输入描述性提示生成专业级别的漫画页面和角色图像。平台具备丰富的编辑工具,如画布编辑器、布局工具以及图像编辑功能,支持用户对生成内容进行细化调整。其应用场景广泛,涵盖独立漫画创作、教育内容制作、营销材料设计等领域。

Stability AI开源Stable Diffusion 3 Medium文生图模型

Stable Diffusion 3 Medium是一款由Stability AI开源的文本到图像生成模型,拥有20亿个参数,适用于消费级和企业级GPU。该模型具备照片级真实感、强大的提示理解和排版能力,以及高资源效率。此外,它还支持API试用,并得到了NVIDIA和AMD的支持,以优化其性能。Stability AI致力于开放和安全的AI应用,并计划持续改进SD3 Medium。

LongAlign

LongAlign是一种针对文本到图像生成任务的改进方法,通过分段级编码技术和分解偏好优化,有效解决了长文本输入的对齐问题。它能够显著提升生成图像与输入文本的一致性,广泛应用于艺术创作、游戏开发、影视制作及教育等领域,具备高精度和强泛化能力。

TextDiffuser-2

一个功能强大的图像生成工具,它通过扩散模型技术,根据文本描述生成高质量的图像。这个工具为用户提供了一种创新的方式来探索和实现他们的创意视觉概念。

RAG

RAG-Diffusion是一种区域感知型文本到图像生成工具,采用区域硬绑定与区域软细化两阶段策略,实现对图像区域的精确控制与细节优化。该工具支持图像重绘,无需额外内绘模型,且具备免微调特性。其主要应用场景包括数字艺术创作、广告设计、游戏开发及影视制作等领域,能够显著提升工作效率并满足个性化需求。

BAGEL

BAGEL是字节跳动开源的多模态基础模型,拥有140亿参数,采用混合变换器专家架构(MoT),通过两个独立编码器捕捉图像的像素级和语义级特征。它能够进行图像与文本融合理解、视频内容理解、文本到图像生成、图像编辑与修改、视频帧预测、三维场景理解与操作、世界导航以及跨模态检索等任务。BAGEL在多模态理解基准测试中表现优异,生成质量接近SD3,并适用于内容创作、三维场景生成、可视化学习和创意广告生成等

HiDiffusion

大幅提升扩散模型的图像生成质速度提升6倍,由字节跳动的研究团队开发,只需添加一行代码即可

PixelFlow

PixelFlow是由香港大学与Adobe联合开发的图像生成模型,支持在像素空间中直接生成高质量图像。其基于流匹配技术和多尺度生成策略,实现从低分辨率到高分辨率的逐步生成,有效降低计算成本。该模型在类别条件图像生成和文本到图像生成任务中表现优异,具备强大的语义理解和视觉表达能力。此外,PixelFlow采用端到端训练方式,支持多种ODE求解器,适用于艺术设计、内容创作、教育研究等多个领域。

IP

一个强大的工具,它通过引入图像提示来增强文本到图像扩散模型的能力。它的设计轻量且高效,易于部署和使用,同时支持广泛的应用场景,包括图像生成、转换和修复。通过解耦的交叉...

TextDiffuser

一个功能强大的图像生成工具,它通过扩散模型技术,根据文本描述生成高质量的图像。这个工具为用户提供了一种创新的方式来探索和实现他们的创意视觉概念。