MoE模型

XVERSE

XVERSE-MoE-A36B是一款由中国元象公司开发的先进MoE(混合专家模型)开源大模型。该模型具备2550亿总参数和360亿激活参数,性能卓越,训练时间缩短30%,推理性能提升100%。它采用前沿的MoE架构,通过稀疏激活、专家网络和门控机制等技术,实现了高效性能和低成本部署。适用于自然语言处理、内容创作、智能客服、教育辅助、信息检索及数据分析等多个领域。

Hunyuan

Hunyuan-Large是一款由腾讯开发的大规模混合专家(MoE)模型,以其庞大的参数量成为当前参数规模最大的开源MoE模型之一。该模型基于Transformer架构,擅长处理长文本任务,同时在多语言自然语言处理、代码生成以及数学运算等领域展现出色性能。通过合成数据增强训练与创新的注意力机制,Hunyuan-Large实现了高效的推理吞吐量,并广泛应用于内容创作、教育辅助、知识问答及数据分析等多

COMET

COMET是字节跳动开发的Mixture-of-Experts(MoE)模型优化系统,通过细粒度计算-通信重叠技术和自适应负载分配机制,显著提升分布式训练效率。它在大规模模型中实现单层1.96倍、端到端1.71倍的加速,具备强鲁棒性与泛化能力,支持多种硬件环境和并行策略,核心代码已开源并可无缝集成至主流训练框架。

TripoSG

TripoSG 是一种基于大规模修正流模型的高保真 3D 形状生成技术,能够从单张图像生成高质量的 3D 网格模型。其核心优势包括高分辨率重建、语义一致性、强泛化能力和稳健的性能。通过混合监督训练策略和高质量数据集,TripoSG 实现了更精准的几何表示与细节还原。该技术适用于工业设计、VR/AR、自动驾驶、教育及游戏开发等多个领域。