OpenBMB
让大模型飞入千家万户
GitHub
启智
最新
MiniCPM:揭示端侧大语言模型的无限潜力
MiniCPM 是一系列端侧语言大模型,主体语言模型 MiniCPM-2B 具有 2.4B 的非词嵌入参数量。在综合性榜单上与 Mistral-7B 相近(中文、数学、代码能力更优),整体性能超越 Llama2-13B、MPT-30B、Falcon-40B 等模型。在当前最接近用户体感的榜单 MTB
2024年02月04 10:55
查看详情
面壁智能联合清华发布最新多模态对齐框架RLHF-V,减少“过泛化”幻觉达业内最佳水平
大模型出现“幻觉”的症结之一在于未经人类对齐时发生的 “过泛化”情况。面壁智能联合清华大学 THUNLP 实验室及新加坡国立大学发表了一篇研究论文,推出全新的多模态大模型对齐框架 RLHF-V,从数据和算法层面入手显著减少“幻觉”的出现。
2024年01月04 10:42
查看详情
将 Agent 引入 RPA ,清华联合面壁智能发布流程自动化新范式 APA
面壁智能 联合 清华自然语言处理实验室 等机构的研究人员共同发布了新一代流程自动化范式 Agentic Process Automation,该范式不仅实现了工作流构建的自动化,更在工作流执行时引入了动态决策的自动化。这一创新将为未来自动化领域带来更高层次的效率和灵活性,将人类从繁重的劳动中解放出来
2024年01月04 09:33
查看详情
BM 体系架构图
BM Data BM Data BM Train Open Prompt Delta Center Open Delta BM Train Open Prompt BM Inf BM Inf BM Inf BM Cook BM Cook
BMTrain
大模型训练“发动机”。BMTrain进行高效的大模型预训练与微调。与DeepSpeed等框架相比,BMTrain训练模型成本可节省90%
详情
对比流行框架,BMTrain表现惊人
BMCook
大模型“瘦身”工具库。BMCook进行大模型高效压缩,提高运行效率。通过量化、剪枝、蒸馏、专家化等算法组合,可保持原模型90%+效果,模型推理加速10倍
详情
任意组合压缩方法尽可能地加速模型
BMInf
千元级显卡玩转大模型推理。BMInf实现大模型低成本高效推理计算,使用单块千元级显卡(GTX 1060)即可进行百亿参数大模型推理。
详情
10B模型解码速度 (Tokens/s)
BMInf
PyTorch
OpenPrompt
大模型提示学习利器。OpenPrompt提供统一接口的提示学习模板语言, 它的组合性和模块化可以让你轻松部署提示学习方法以驱动大模型。
详情
工具结构
OpenDelta
“小”参数撬动“大”模型。OpenDelta进行参数高效的大模型微调,仅更新极少参数(小于5%)即可达到全参数微调的效果。
详情
OpenDelta可以和OpenPrompt协作运行
ModelCenter
大模型仓库。ModelCenter基于BMTrain工具实现了一系列预训练语言模型,支持高效、低成本、可扩展性强的模型微调及分布式训练
详情
支持模型
代表用户