训练

MiniMind

MiniMind 是一款轻量级开源语言模型项目,具备极低的训练成本和高效的训练流程。其最小模型仅需 25.8M 参数,可在普通 GPU 上运行,支持多模态能力,如视觉语言模型 MiniMind-V。项目提供完整的训练代码,涵盖预训练、微调、LoRA、DPO 和模型蒸馏,兼容主流框架,适合初学者和开发者快速上手并应用于多个领域。

Sana

SANA是一个由NVIDIA、麻省理工学院和清华大学共同研发的文本到图像生成框架,支持生成高达4096×4096分辨率的高清图像。它采用了深度压缩自编码器、线性扩散变换器(Linear DiT)和小型语言模型作为文本编码器,并通过优化的训练和采样策略提升了生成效率。SANA在模型大小和运行速度上具备显著优势,适合多种应用场景,包括艺术创作、游戏开发、广告设计和科学研究等。

Meta Motivo

Meta Motivo是一款由Meta公司研发的人工智能模型,专为提高元宇宙中虚拟人形智能体的真实性和自然性而设计。通过无监督强化学习算法,Meta Motivo实现了对全身动作的有效控制,支持零样本学习、多任务泛化以及行为模仿等功能。其核心优势在于将状态、动作和奖励统一映射至潜在空间,显著增强了元宇宙体验的真实感。此外,该模型还适用于机器人控制、虚拟助手、游戏动画等多个应用场景。

DAMODEL

DAMODEL是一个基于GPU算力的AI开发云平台,支持多种主流AI框架和高性能GPU配置,提供开箱即用的开发环境和便捷的数据管理功能。平台具备可视化操作界面、JupyterLab在线访问及多种预置模型,适用于大模型训练、深度学习、数据科学和图像处理等多种应用场景。

壁仞科技

致力于研发原创性的通用计算体系,建立高效的软硬件平台

SeedVR

SeedVR是由南洋理工大学与字节跳动联合开发的视频修复模型,采用移位窗口注意力机制和因果视频变分自编码器,实现高质量、高效率的视频修复。支持任意长度和分辨率的视频处理,生成具有真实感细节的修复结果,适用于影视修复、广告制作、监控视频优化等多个场景。其处理速度优于现有方法,具备良好的实用性与扩展性。

破壳AI口语

破壳AI口语是一款基于AI技术的英语口语学习工具,涵盖生活、校园、旅游、职场等多场景对话,帮助用户提升流利度、语法和发音。支持雅思口语模考打分、实时纠错、地道表达润色等功能,用户可与多样虚拟角色互动,增强学习趣味性。适用于日常交流、留学、职场、旅游及考试备考等场景,助力用户高效提升英语口语能力。

Image

Image-01 是一款由 MiniMax 开发的文本到图像生成模型,能够根据文本描述精准生成高质量、高分辨率图像,支持多种纵横比输出。具备优秀的人物与物体渲染能力,适用于艺术创作、广告设计、影视制作等多个领域。支持高效批量生成,单次最多输出 9 张图像,每分钟处理 10 个请求,提升创作效率。采用扩散模型与 Transformer 架构,结合线性注意力与 MoE 技术,确保图像质量与生成效率。

MAI

MAI-DS-R1 是微软基于 DeepSeek R1 优化的 AI 模型,具备高敏感话题响应能力(99.3%),有害内容风险降低 50%,并保持与原版相同的推理水平。支持多语言输出,适用于国际组织、企业及教育机构。已开源,可用于研究与开发,适用于内容审核、多语言客服、学术研究等多种场景。

Amphion

Amphion是一款开源音频生成工具包,包含文本转语音(TTS)、歌声合成(SVS)、语音转换(VC)、歌声转换(SVC)、文本转音频(TTA)和文本转音乐(TTM)等功能。它支持多种神经声码器,并提供可视化模型架构,帮助用户快速掌握音频生成技术。通过统一框架和预训练模型,Amphion推动了音频生成领域的研究和应用发展。