乾元BigBangTransformer BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。 Ai平台模型 1970年01月01日 0 点赞 0 评论 244 浏览
无问芯穹 无问芯穹致力于提供卓越的AGI算力解决方案,以大模型能效优化工具包为核心,向下联动多家国产芯片公司,向上通过智算云服务、智算一体机多种方式服务大模型算法企业,协同算力、算法、生态推动行业大模型的高效落地,构建AGI时代的大模型基础设施。 AI服务商 2025年06月05日 69 点赞 0 评论 487 浏览