场景

CogVideo

目前最大的通用领域文本生成视频预训练模型,含94亿参数。CogVideo将预训练文本到图像生成模型(CogView2)有效地利用到文本到视频生成模型,并使用了多帧率分层训练策略。

FullStack Bench

FullStack Bench是一款由字节跳动与M-A-P社区联合推出的专业代码评估工具,主要针对全栈编程和多语言编程能力进行评估。它包含11种真实编程场景、3374个问题以及16种编程语言,具备全面评估、多语言支持、实际场景模拟、代码质量控制等特点,适用于代码智能评估、教育与培训、研究开发、软件测试及多语言编程能力评估等多个场景。

LucidDreamer

LucidDreamer,可以从单个图像的单个文本提示中生成可导航的3D场景。 单击并拖动(导航)/移动和滚动(缩放)以感受3D。

SwiftEdit

SwiftEdit是一款基于文本引导的图像编辑框架,利用一步反演技术和掩码引导编辑技术,可在极短时间内实现高质量图像编辑,同时保持背景元素完整。它支持快速文本引导编辑、一步反演框架及自引导编辑掩码提取,并具备灵活的注意力重缩放机制,广泛应用于社交媒体、广告营销、新闻媒体、艺术创作和电子商务等领域。

子曰翻译2.0

子曰翻译2.0是网易有道推出的最新翻译大模型,通过数据优化、算法升级和严格评估体系,实现翻译质量与效率的显著提升。支持中英互译、专业领域翻译及多场景应用,涵盖学术、医疗、文学等领域,具备高准确性、流畅性和适应性,适用于多种翻译需求。

T2I

T2I-R1是由香港中文大学与上海AI Lab联合开发的文本到图像生成模型,采用双层推理机制(语义级和 Token 级 CoT),实现高质量图像生成与复杂场景理解。其基于 BiCoT-GRPO 强化学习框架,结合多专家奖励模型,提升生成图像的多样性和稳定性。适用于创意设计、内容制作、教育辅助等多个领域,具有广泛的应用潜力。

腾讯混元文生视频

腾讯混元文生视频是一款利用AI技术生成高质量视频内容的工具,可根据文本提示生成具有大片质感的视频。它支持多语言输入,涵盖高清画质、流畅镜头切换及自然场景模拟等功能,适用于电影制作、广告设计、教育培训等多种应用场景。

MIDI

MIDI是一种基于多实例扩散模型的3D场景生成技术,能将单张2D图像快速转化为高保真度的360度3D场景。它通过智能分割、多实例同步扩散和注意力机制,实现高效的3D建模与细节优化。具有良好的泛化能力,适用于游戏开发、虚拟现实、室内设计及文物数字化等多个领域。