分析
乾元BigBangTransformer
BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
Mistral Medium 3
Mistral Medium 3是Mistral AI推出的一款多模态语言模型,兼具高性能与低成本优势,适用于企业级应用。支持混合云部署、定制化微调及多模态任务处理,可广泛应用于编程辅助、智能客服、数据分析及知识管理等领域,具备良好的扩展性和系统集成能力。