模型
Awesome Chinese LLM
整理了开源的中文大语言模型(LLM),主要关注规模较小、可私有化部署且训练成本较低的模型,目前已收录了100多个相关资源。
乾元BigBangTransformer
BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
Seamless Communication
强大的AI同声传译工具,它通过实时处理和翻译语音,极大地促进了跨语言沟通。其低延迟、高准确度和多语言支持的特点,使其成为国际会议、多语言工作环境和任何需要实时语音翻译的...
