训练

Fox

Fox-1是一系列由TensorOpera开发的小型语言模型,基于大规模预训练和微调数据,具备强大的文本生成、指令遵循、多轮对话和长上下文处理能力。该模型在多个基准测试中表现出色,适用于聊天机器人、内容创作、语言翻译、教育辅助和信息检索等多种应用场景。

NVILA

NVILA是一款由NVIDIA开发的视觉语言模型,通过“扩展-压缩”策略优化处理高分辨率图像和长视频,兼具效率与准确性。它在图像和视频基准测试中表现优异,支持时间定位、机器人导航和医疗成像等应用场景,并通过参数高效微调和量化技术提升模型性能。未来将在GitHub和HuggingFace平台上开源。

DrivingDojo

DrivingDojo是一个由中国科学院自动化研究所与美团无人车团队合作研发的数据集,包含18,000个视频片段,涵盖全面的驾驶操作、多智能体交互及开放世界驾驶知识。它定义了动作指令跟随(AIF)基准,用于评估世界模型的预测能力,并支持自动驾驶算法开发、世界模型训练、多智能体交互模拟及罕见事件处理等多个应用场景。

FineWeb 2

FineWeb 2是一个涵盖超过1000种语言的多语言预训练数据集,通过语言识别、去重、内容过滤及PII匿名化处理生成。它支持多种NLP任务,如机器翻译和文本分类,旨在增强多语言模型的性能与普适性,并为研究者提供技术验证的工具与资源。

SynCamMaster

SynCamMaster是一款由多家顶尖高校与企业联合研发的多视角视频生成工具,支持从任意视点生成高质量开放世界视频。其核心技术包括结合6自由度相机姿态、多视图同步模块以及预训练文本到视频模型的增强版本。SynCamMaster不仅能在不同视角间保持动态同步,还能实现新视角下的视频合成与渲染,广泛应用于影视制作、游戏开发、虚拟现实及监控系统等领域。

STIV

STIV是一款由苹果公司开发的视频生成大模型,具有8.7亿参数,擅长文本到视频(T2V)及文本图像到视频(TI2V)任务。它通过联合图像-文本分类器自由引导(JIT-CFG)技术提升生成质量,并结合时空注意力机制、旋转位置编码(RoPE)及流匹配训练目标优化性能。STIV支持多种应用场景,包括视频预测、帧插值、长视频生成等,适用于娱乐、教育、广告及自动驾驶等多个领域。

Meta Motivo

Meta Motivo是一款由Meta公司研发的人工智能模型,专为提高元宇宙中虚拟人形智能体的真实性和自然性而设计。通过无监督强化学习算法,Meta Motivo实现了对全身动作的有效控制,支持零样本学习、多任务泛化以及行为模仿等功能。其核心优势在于将状态、动作和奖励统一映射至潜在空间,显著增强了元宇宙体验的真实感。此外,该模型还适用于机器人控制、虚拟助手、游戏动画等多个应用场景。

360gpt2

360gpt2-o1是一款专注于数学与逻辑推理的人工智能大模型,具备强大的推理能力和深度学习能力。它通过合成数据优化、分阶段训练及“慢思考”范式提升了模型的表现,尤其在数学竞赛和基础数学评测中成绩显著。此外,模型还支持编程问题解决、复杂问题分析及教育领域应用,为企业决策提供逻辑支持。

SnapGen

SnapGen是一款由Snap Inc、香港科技大学和墨尔本大学联合开发的文本到图像扩散模型,专为移动设备设计,支持在1.4秒内生成1024×1024像素的高分辨率图像。它通过优化网络架构、跨架构知识蒸馏和对抗性训练等技术,在保持小模型规模的同时,提供了高质量的图像生成能力,适用于社交媒体、移动应用、教育、新闻等多个领域。

Lyra

Lyra是一款由香港中文大学、SmartMore和香港科技大学联合研发的高效多模态大型语言模型(MLLM)。它通过整合视觉、语音和文本三种模态的信息,实现了强大的跨模态理解和推理能力。Lyra不仅擅长处理长语音数据,还支持流式文本-语音生成及跨模态信息交互,适用于智能助手、客户服务、教育培训、医疗健康等多个领域。