模型

MobileLLM

MobileLLM是一款针对移动设备优化的大型语言模型,具有语言理解与生成、零样本常识推理、聊天交互、API调用、文本重写与摘要生成以及数学问题解决等功能。它通过深度薄型架构、SwiGLU激活函数、嵌入共享和分组查询注意力机制等技术,在低参数环境下实现高效性能,适用于移动聊天、语音助手、内容推荐、教育辅助和移动搜索等多种应用场景。

OSAID 1.0

OSAID 1.0是由Open Source Initiative(OSI)制定的开源AI标准,明确了AI系统成为开源所需的条件。该标准要求AI系统提供代码、数据和参数,并强调透明度与协作,适用于开源社区、企业、开发者、教育机构及政策制定者。它推动了AI领域的创新、透明度和信任建设,同时影响了现有AI模型的开发和法律地位。

Oasis

Oasis是一款依托于AI技术的实时生成游戏,无需依赖传统游戏引擎即可实现每秒20帧的高质量交互式视频内容输出。它支持玩家自由探索开放世界,并通过动态调整机制提供个性化体验。凭借开源特性及硬件优化能力,Oasis展示了AI在内容创作领域的巨大潜力,适用于游戏、教育、虚拟旅游等多个领域。

Voice Changer

Voice Changer是一款基于状态空间模型的音频处理工具,可将音频中的语音转换为不同音色,同时保留情感和表达细节。用户可通过选择预设声音库或克隆个人声音实现个性化转换,并对语音细节进行精细调整。该工具广泛应用于内容创作、游戏配音、有声书制作及品牌音频开发等领域,提供高质量的音频输出和灵活的控制选项。

DreamVideo

DreamVideo-2是一款由复旦大学和阿里巴巴集团等机构共同开发的零样本视频生成框架,能够利用单一图像及界定框序列生成包含特定主题且具备精确运动轨迹的视频内容。其核心特性包括参考注意力机制、混合掩码参考注意力、重加权扩散损失以及基于二值掩码的运动控制模块,这些技术共同提升了主题表现力和运动控制精度。DreamVideo-2已在多个领域如娱乐、影视制作、广告营销、教育及新闻报道中展现出广泛应用前

EMMA

EMMA是一款基于Gemini模型的端到端自动驾驶多模态模型,可直接从原始相机传感器数据生成驾驶轨迹并执行多种任务,如3D对象检测、道路图元素识别及场景理解。该模型利用自然语言处理技术实现跨任务协作,并展现出强大的泛化能力,但在某些方面仍需改进。

TimeSuite

TimeSuite是一种由上海AI Lab开发的框架,专注于提升多模态大型语言模型在长视频理解任务中的表现。它通过引入高效的长视频处理框架、高质量的视频数据集TimePro和Temporal Grounded Caption任务,提升了模型对视频内容的时间感知能力,减少了幻觉风险,并显著提高了长视频问答和时间定位任务的性能。其核心技术包括视频令牌压缩、时间自适应位置编码、U-Net结构及多样化任务

MimicTalk

MimicTalk是一款利用NeRF技术快速生成个性化3D说话人脸模型的工具,其核心功能包括15分钟内完成新身份训练、高质量视频生成、增强的表现力以及上下文学习能力。该工具通过混合适应流程、上下文风格化音频到运动模型等技术,实现了高效的数据样本利用和训练效率提升,适用于虚拟主播、远程协作、VR/AR等领域。

Show

Show-o 是一款基于统一 Transformer 架构的多模态 AI 工具,集成了自回归和离散扩散建模技术,可高效处理视觉问答、文本到图像生成、图像修复与扩展以及混合模态生成等多种任务。其创新性技术显著提高了生成效率,减少了采样步骤,适用于社交媒体内容创作、虚拟助手、教育与培训、广告营销、游戏开发及影视制作等多个领域。

炉米Lumi

炉米Lumi是一款由字节跳动开发的AIGC图像创作平台,主要功能包括模型上传与展示、工作流搭建以及LoRA微调。它为AI爱好者、研究人员和开发者提供了一个协作环境,用于分享和优化AI模型。炉米Lumi支持多种应用场景,如科研、教育、艺术创作、商业应用开发等,具有开放性和高灵活性。 ---