Skip to content

Latest commit

 

History

History
111 lines (90 loc) · 12.9 KB

README_zh-CN.md

File metadata and controls

111 lines (90 loc) · 12.9 KB

快速开始

Megatron-LM-Dense Megatron-Core-Dense Megatron-Core-MoE MegaBlocks-MoE
Qwen2-VL N/A ReadMe N/A N/A
LLaVA N/A ReadMe N/A N/A
Qwen2.5 N/A ReadMe N/A N/A
LLama3.1 N/A ReadMe N/A N/A
LLama3 ReadMe ReadMe N/A N/A
LLama2 ReadMe ReadMe N/A N/A
Mistral ReadMe ReadMe ReadMe N/A
Qwen2 N/A ReadMe ReadMe N/A
Qwen1.5 ReadMe ReadMe ReadMe ReadMe
DeepSeek-V2 N/A N/A ReadMe N/A

Pai-Megatron-Patch是什么

English | 简体中文

随着深度学习大模型的不断发展,其模型结构和量级在快速演化,依托大模型技术的应用更是层出不穷。 对于广大开发者来说不仅要考虑如何在复杂多变的场景下有效的将大模型消耗的算力发挥出来,还要应对大模型的持续迭代。 开发简单易用的大模型训练工具就成了应对以上问题广受关注的技术方向,让开发者专注于大模型解决方案的开发,降低大模型训练加速性能优化和训练/推理全流程搭建的人力开发成本。

Pai-Megatron-Patch工具是阿里人工智能平台PAI算法团队研发,基于阿里云智算服务PAI-灵骏平台的大模型最佳实践解决方案配套工具。 Pai-Megatron-Patch是各类开源大模型和Megatron训练加速引擎之间的“桥梁”,为用户提供用Megatron训练开源大模型的易用性以及LLM算法场景定制化的灵活性。 同时它可以帮助大模型开发者快速上手PAI灵骏产品,完成大模型的高效分布式训练,有监督指令微调,模型离线推理验证等完整大模型开发链路。 该项目提供了业界主流开源大模型基于Megatron的训练&离线推理验证流程,方便用户快速上手大模型训练。

Technical Reports

新功能:

  • 支持用Megatron-Core框架训练Qwen2-VL模型 [🔥🔥 2024.11.27]
  • 支持用Megatron-Core框架训练LLaVA模型 [🔥🔥 2024.11.20]
  • 添加大模型训练最优吞吐参数自动配置以及针对qwen2/2.5系列模型优化微调per seq sft loss. [🔥🔥 2024.10.30]
  • 升级Deepseek-V2-MoE系列模型支持TE版的MLA以及流水并行CKPT转换 [🔥🔥 2024.09.26]
  • 支持用Megatron-Core框架训练Qwen2.5系列模型 [🔥🔥 2024.09.20]
  • 支持Qwen2及LLaMA-3.1系列模型SFT的Sequence Packing技术. [🔥🔥 2024.09.13]
  • 升级Qwen2系列模使用Flash-Attention 3, Offloading, Comm-Overlapping训练微调 [🔥🔥 2024.08.23]
  • 支持LLaMA-3.1系列模使用Flash-Attention3训练微调 [🔥🔥 2024.08.23]
  • 支持用Megatron-Core框架训练LLaMA-3.1系列模型 [🔥🔥 2024.08.23]
  • 支持自动优化器卸载. [🔥🔥 2024.07.25]
  • 支持静态优化器卸载. [🔥🔥 2024.07.15]
  • 支持用Megatron-Core框架训练qwen-2-MoE系列模型 [🔥🔥 2024.06.19]
  • 支持用Megatron-Core框架训练qwen-2-Dense系列模型 [🔥🔥 2024.06.12]
  • 支持用Megatron-Core框架训练deepseek-v2-MoE系列模型 [🔥🔥 2024.05.30]
  • 支持用Megatron-Core框架训练qwen1.5-MoE系列模型 [🔥🔥 2024.05.13]
  • 支持用Megatron-LM和Megatron-Core框架训练llama3系列模型 [🔥🔥 2024.04.21]
  • 支持用Megatron-Core框架训练qwen1.5系列模型 [🔥🔥 2024.03.20]
  • 支持用Megatron-LM框架训练qwen1.5系列模型 [🔥🔥 2024.02.28]
  • 支持用Megatron-Core框架训练mixtral-8x7b MoE稀疏模型 [🔥🔥 2024.01.26]
  • 支持用Megatron-LM框架训练多模态大模型qwen-vl. [🔥🔥 2023.12.15]
  • 支持用Megatron-LM框架训练多模态大模型LLava. [🔥🔥 2023.12.01]
  • 支持用Megatron-LM框架训练deepseek系列模型. [🔥🔥 2023.11.24]
  • 支持用Megatron-LM框架训练qwen-72B模型. [🔥🔥 2023.11.23]
  • 支持用Megatron-LM框架训练Mistral-7B, Yi-6B和Codellama-34B模型 [🔥🔥 2023.11.16]
  • 升级Megatron-LM底座,帮助热门模型支持transformer engine和fp8训练. [🔥🔥 2023.10.19]
  • 支持用Megatron-LM框架训练qwen-14B和baichuan2-13B [🔥🔥 2023.10.08]

主要特性

  • 多款热门大模型支持:llama,llama-2系列,codellama, deepseek,百川,通义千问,Falcon,GLM,Starcoder,Bloom,chatglm等
  • 支持模型权重互转转换:在Huggingface,Megatron和Transformer Engine之间进行算子命名空间映射
  • 支持Flash Attention 2.0和Transformer Engine模式下的FP8训练加速且确保收敛
  • 丰富且简单易用的使用示例,支持大模型预训练,微调,评估和推理,强化学习全流程最佳实践

技术架构

Pai-Megatron-Patch的设计理念是不对Megatron-LM的源码进行侵入式修改,即不在Megatron-LM里面添加新的功能特性, 将需要扩充完善的部分以patch补丁的方式呈现。在patch中构建LLM训练链路通过依赖Megatron-LM核心库的方法实现和Megatron-LM的解耦合。 这样解耦合的好处就是Megatron-LM的升级不会影响用户的LLM最佳实践体验。

Pai-Megatron-Patch中包含模型库,分词器,模型转换,强化学习,离线文本生成以及使用示例和工具集等用于构建LLM训练的关键要素。 在模型库中包含热门大模型的Megatron版本实现,例如baichuan,bloom,chatglm,falcon,galactica,glm,llama,qwen和starcoder, 后续还会根据需要及时添加新的Megatron版大模型实现。同时patch还提供了huggingface模型权重和Megatron模型权重之间的双向转换。 一方面是方便用户加载huggingface的权重在Megatron中继续预训练或者微调, 另一方面是方便用户对训练好的Megatron模型使用huggingface的评估/推理流程对模型质量进行客观评估。 在强化学习部分,patch提供了PPO训练流程等,方便用户使用SFT模型和RM模型进行强化学习。最后patch提供了大量的使用示例帮助用户快速开始大模型训练&离线推理。

具体在阿里云灵骏产品的使用流程请参考: 智算服务PAI灵骏大模型分布式训练方案

技术交流群

欢迎使用钉钉扫描如下的二维码进群交流, 1群已满,请加2群。

许可证

本项目采用 Apache License (Version 2.0). 本项目包含来自于其他项目的开源许可授权的代码,具体请查看NOTICE.