行业大模型

乾元BigBangTransformer

BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。

无问芯穹

​无问芯穹致力于提供卓越的AGI算力解决方案,以大模型能效优化工具包为核心,向下联动多家国产芯片公司,向上通过智算云服务、智算一体机多种方式服务大模型算法企业,协同算力、算法、生态推动行业大模型的高效落地,构建AGI时代的大模型基础设施。