GPT
乾元BigBangTransformer
BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
WeChat Bot
基于WeChaty结合OpenAI ChatGPT、Kimi、讯飞等多种AI服务实现的开源微信机器人项目,用于自动回复微信消息或管理微信群/好友。