训练

CogVideoX

CogVideoX是由智谱AI开发的开源AI视频生成模型,支持英文提示词生成6秒长、每秒8帧、分辨率为720x480的视频。它具备低显存需求、视频参数定制、3D Causal VAE技术和推理与微调功能。该模型采用基于Transformer的架构和3D Causal Variational Autoencoder技术,支持多阶段训练和自动及人工评估,适用于创意视频制作、教育材料、广告、游戏、电影编

PixelFlow

PixelFlow是由香港大学与Adobe联合开发的图像生成模型,支持在像素空间中直接生成高质量图像。其基于流匹配技术和多尺度生成策略,实现从低分辨率到高分辨率的逐步生成,有效降低计算成本。该模型在类别条件图像生成和文本到图像生成任务中表现优异,具备强大的语义理解和视觉表达能力。此外,PixelFlow采用端到端训练方式,支持多种ODE求解器,适用于艺术设计、内容创作、教育研究等多个领域。

DrivingDojo

DrivingDojo是一个由中国科学院自动化研究所与美团无人车团队合作研发的数据集,包含18,000个视频片段,涵盖全面的驾驶操作、多智能体交互及开放世界驾驶知识。它定义了动作指令跟随(AIF)基准,用于评估世界模型的预测能力,并支持自动驾驶算法开发、世界模型训练、多智能体交互模拟及罕见事件处理等多个应用场景。

MinT

MinT是一款基于时间基位置编码技术的多事件视频生成框架,允许用户通过文本提示生成包含多个事件的连贯视频,并支持对事件顺序及持续时间的精确控制。其核心技术ReRoPE使得模型能够有效关联文本提示与视频帧,同时结合预训练的视频扩散变换器(DiT)和大型语言模型(LLM)的提示增强功能,进一步提升了视频生成的质量与丰富度。MinT适用于娱乐、广告、教育等多个领域,为视频创作带来了创新性的解决方案。

personal.ai

Personal.ai 是一款创新性的人工智能平台,允许用户创建和训练个性化 AI 助手。其核心功能包括信息记忆、自动回复、任务管理及数据隐私保护。借助这些特性,Personal.ai 能够为用户提供高效、安全且个性化的解决方案,适用于个人助理、商务沟通、客户服务、知识管理、教育学习以及内容创作等多个场景。

Liquid

Liquid是由华中科技大学、字节跳动和香港大学联合开发的多模态生成框架,通过VQGAN将图像编码为离散视觉token并与文本共享词汇空间,使大型语言模型无需修改结构即可处理视觉任务。该框架降低训练成本,提升视觉生成与理解性能,并在多模态任务中表现出色。支持图像生成、视觉问答、多模态融合等应用,适用于创意设计、内容创作及智能交互等领域。

smoltalk

Smoltalk-Chinese 是 OpenCSG 开发的中文大型语言模型专用合成数据集,包含 70 多万条高质量数据,涵盖多种任务类型,如信息查询、编程、数学、创意写作等。数据通过先进模型生成并经过严格筛选和去重,确保多样性与质量,适用于模型微调和多场景应用,提升语言理解和生成能力。

RSIDiff

RSIDiff 是一种基于递归自训练的文本到图像生成优化框架,通过高质量提示构建、偏好采样和分布加权机制,提升图像质量和与人类偏好的对齐度,减少训练崩溃风险。它具备自演化能力,降低对大规模数据的依赖,广泛应用于艺术创作、广告设计、VR/AR、游戏开发等领域。

哄哄模拟器

哄哄模拟器是一款利用AI技术提升用户情商和沟通技巧的应用。该应用基于Moonshot的Kimi智能助手大模型,融合了自然语言处理和人际交往的知识,通过模拟日常生活和恋爱中的沟通场景,帮助用户改善情感智慧和沟通能力。它支持网页版和iOS版本,具备模拟争执场景、文字交流实训、情感状态模拟、沉浸式音效、恋爱交往文本分析以及场景角色定制等功能。

AGUVIS

AGUVIS是一款由香港大学与Salesforce联合开发的纯视觉框架,专为自主GUI智能体设计。它支持跨平台操作,通过图像观察与自然语言指令的关联,以及显式规划和推理能力,提高了代理在复杂数字环境中的交互效率。AGUVIS采用大规模数据集及两阶段训练方法,实现了在离线与在线场景中的高效性能,成为首个不依赖外部闭源模型即可独立完成任务的纯视觉GUI代理。