训练

Tarsier2

Tarsier2是字节跳动研发的大规模视觉语言模型,擅长生成高精度视频描述并在多项视频理解任务中表现优异。其核心技术包括大规模数据预训练、细粒度时间对齐微调以及直接偏好优化(DPO)。该模型在视频问答、定位、幻觉检测及具身问答等任务中均取得领先成绩,支持多语言处理,具有广泛的应用潜力。

LLM Engineer Toolkit

一个精心整理的LLM工具库,它将120多个与LLM相关的库按照功能和用途进行了细致分类,涵盖了从训练微调、应用开发、推理服务到安全评估等 LLM 开发全流程所需的工具。

Talkme练口语

TalkMe是一款革命性的跨语言学习产品,告别社恐,建立自信,AI练口语轻松又有趣,代替真人AI口语练习无负担。

GameGen

GameGen-O 是一款基于 Transformer 架构的AI工具,专注于开放世界游戏视频的生成。它具备角色生成、环境构建、动作模拟及交互式控制等功能,通过两阶段训练方法提升了生成质量和灵活性,可应用于游戏原型设计、场景生成及开发辅助等领域,有助于降低开发成本并提高创作效率。

Skild Brain

Skild Brain 是 Skild AI 推出的具身智能基础模型,具备强大的泛化能力和多场景适应性,可应用于机器人控制、物体操作、环境导航等任务。其基于大规模数据训练,支持多种机器人平台,适用于工业自动化、物流、医疗及家庭服务等领域。

生成时代

AIGC 多模态 API 平台,提供 AIGC 图像生成、图像编辑、视频生成、视频编辑、音频生成、训推一体等 API,免去 GPU 和模型维护成本,帮助开发者快速搭建 AIGC 应用。

AGUVIS

AGUVIS是一款由香港大学与Salesforce联合开发的纯视觉框架,专为自主GUI智能体设计。它支持跨平台操作,通过图像观察与自然语言指令的关联,以及显式规划和推理能力,提高了代理在复杂数字环境中的交互效率。AGUVIS采用大规模数据集及两阶段训练方法,实现了在离线与在线场景中的高效性能,成为首个不依赖外部闭源模型即可独立完成任务的纯视觉GUI代理。

V-JEPA

创新的自监督学习模型,它通过预测视频帧的特征表示来学习视频的视觉表示。这种方法不仅能够处理视频内容,还能在图像任务上表现出色,具有广泛的应用潜力。

OLMoE

OLMoE是一款基于混合专家(MoE)架构的开源大型语言模型,具有高效的稀疏激活机制和快速训练能力。它支持自然语言理解、文本生成、多任务处理等功能,并广泛应用于聊天机器人、内容创作、情感分析和问答系统等领域,通过预训练和微调实现高精度任务执行。 ---

LongVILA

LongVILA是一款专为长视频理解设计的视觉语言AI模型,由多家知名研究机构共同开发。它具备强大的长上下文处理能力和多模态序列并行性,能在大量GPU上高效训练,无需梯度检查点。LongVILA通过五阶段训练流程,结合大规模数据集构建和高性能推理,显著提升了长视频字幕的准确性和处理效率。此外,它还支持多种应用场景,包括视频字幕生成、内容分析、视频问答系统等。