
详细描述
1.
- OpenBMB:推动大模型技术普及化 清华大学自然语言处理实验室与智源研究院携手发起的OpenBMB项目,致力于降低大规模预训练语言模型的使用门槛,助力大模型生态的蓬勃发展。该项目提供了一整套工具集,旨在加速大模型的训练、微调与推理,实现大模型的飞入“千家万户”。 2.
- BMTrain:大模型训练的高效“发动机” OpenBMB的工具集之一,BMTrain,大幅降低了大模型训练的成本,相较于DeepSpeed等框架,可节省高达90%的模型训练成本,成为大模型训练的强大“发动机”。 3.
- BMCook:大模型压缩与效率提升利器 BMCook通过量化、剪枝、蒸馏等技术,实现了大模型的高效压缩,保持原模型90%+的效果同时,推理速度提升10倍,极大提高了模型的运行效率。 4.
- BMInf:低成本大模型推理方案 BMInf使得开发者仅需使用单块千元级显卡(如GTX 1060),即可实现百亿参数大模型的低成本高效推理,大大降低了推理计算的门槛。 5.
- OpenPrompt:便捷的提示学习工具 OpenPrompt提供模块化的提示学习模板语言,助力开发者轻松部署提示学习方法,有效驱动大模型。 6.
- OpenDelta:高效微调技术 OpenDelta仅需微调少于5%的参数,即可实现全参数微调的效果,大大提升了大模型微调的效率。 7.
- ModelCenter:丰富的预训练模型库 ModelCenter基于BMTrain,提供了一系列预训练语言模型,支持高效、低成本的模型微调及分布式训练,极大丰富了开发者的选择。 8.
- OpenBMB开源社区:共享与创新 自2022年4月8日起,OpenBMB项目在OpenI启智社区独家开源合作,吸引了超过55万次的浏览,得到了广大开发者和研究者的广泛关注与好评,成为大模型技术共享与创新的重要平台。