昇腾AI-910B平台使用文档

平台硬件配置

Atlas800训练服务器(型号:9000)

参数:

  • CPU: 4 × HUAWEI Kunpeng 920 5250 (2.6GHz, 48 cores)

  • NPU: 8 × Ascend 910B 64GB

  • 架构:Arm

  • 系统: OpenEuler 2203

连接昇腾910B节点

ssh方式(从π 2.0登录Ascend 910B计算节点),910B有两个计算节点,节点名分别为“ascend02”及“ascend03”

ssh username@ascend02  # username替换为超算账号

准备开发环境

设置昇腾环境变量

若要进行多卡训练,需要使用新版的CANN软件。目前集群已经安装了7.0.RC1.alpha003版本的CANN,使用时需设置

source /opt/Ascend/ascend-toolkit/set_env.sh

查看集群使用状况使用如下命令

npu-smi info

可以根据集群使用状况,使用以下命令指定使用的NPU卡号

export ASCEND_RT_VISIBLE_DEVICES=0

由于测试集群目前暂未配置slurm操作系统,为防止出现资源挤占,每天晚上11点会清理未释放的进程,请注意保存测试结果。

安装深度学习框架

安装PyTorch

PyTorch配套支持的Python版本是:Python3.7.x(3.7.5 -3.7.11)、Python3.8.x(3.8.0 - 3.8.11)、Python3.9.x(3.9.0 - 3.9.2)。

  1. 激活Conda,使用昇腾上安装的Miniconda

mkdir Ascend
cd Ascend
export PATH=/lustre/opt/contribute/ascend/miniconda3/bin:$PATH
source activate
  1. 创建虚拟环境,安装PyTorch环境依赖,下面以python3.7为例

conda create -n pytorch-env python=3.7
source activate pytorch-env
pip3 install pyyaml
pip3 install wheel
pip3 install typing_extensions
pip3 install attrs
pip3 install numpy
pip3 install decorator
pip3 install sympy
pip3 install cffi
pip3 install pyyaml
pip3 install pathlib2
pip3 install psutil
pip3 install protobuf
pip3 install scipy
pip3 install requests
pip3 install absl-py

小技巧

使用conda安装虚拟环境时,由于在虚拟环境下安装了Python,也需要安装上述依赖,否则会报错缺少相关依赖文件。

  1. 下载官方torch包。

# 安装1.11.0版本PyTorch,使用以下命令
wget https://download.pytorch.org/whl/torch-1.11.0-cp37-cp37m-manylinux2014_aarch64.whl
  1. 安装torch

# 安装1.11.0版本PyTorch,使用以下命令
pip3 install torch-1.11.0-cp37-cp37m-manylinux2014_aarch64.whl
  1. 下载PyTorch插件torch_npu。

# 安装1.11.0版本
wget https://gitee.com/ascend/pytorch/releases/download/v5.0.rc3-pytorch1.11.0/torch_npu-1.11.0.post4-cp37-cp37m-linux_aarch64.whl --no-check-certificate
  1. 安装torch_npu插件

# 如需安装1.11.0版本PyTorch配套插件,使用以下命令
pip3 install torch_npu-1.11.0.post4-cp37-cp37m-linux_aarch64.whl
  1. 安装对应版本的torchvision

# 如需安装1.11.0版本PyTorch配套torchvision,使用以下命令
pip3 install torchvision==0.12.0
  1. 安装深度学习加速库Apex

# 如需安装1.11.0版本PyTorch配套Apex,使用以下命令
pip3 install apex --no-index --find-links https://ascend-repo.obs.cn-east-2.myhuaweicloud.com/MindX/OpenSource/pytorch1_11_0/index.html --trusted-host ascend-repo.obs.cn-east-2.myhuaweicloud.com
  1. 执行以下命令验证,若返回True则说明安装成功

python3 -c "import torch;import torch_npu;print(torch_npu.npu.is_available())"

运行样例

运行PyTorch样例

  1. 获取模型脚本并进入模型代码所在目录。

git clone https://gitee.com/ascend/ModelZoo-PyTorch.git
cd ModelZoo-PyTorch/PyTorch/built-in/cv/classification/MobileNetV3-Large_ID1784_for_PyTorch
conda activate pytorch-env
  1. 安装依赖

pip install -r 1.11_requirements.txt
  1. 获取数据集

cp /lustre/share/scidata/tiny-imagenet-200.zip ./
unzip tiny-imagenet-200.zip
  1. 运行训练脚本

bash ./test/train_full_1p.sh --data_path=./tiny-imagenet-200

PyTorch模型迁移

自动迁移

  1. 配置环境变量。

export PYTHONPATH=/opt/Ascend/ascend-toolkit/latest/tools/ms_fmk_transplt/torch_npu_bridge/:$PYTHONPATH
  1. 在训练脚本中导入以下库代码。

import torch
import torch_npu
.....
from torch_npu.contrib import transfer_to_npu

迁移分析工具

利用PyTorch迁移分析工具能够分析代码中API的支持情况。

  1. 环境准备

pip3 install pandas
pip3 install libcst
pip3 install jedi
  1. 进入迁移工具所在路径

cd /opt/Ascend/ascend-toolkit/latest/tools/ms_fmk_transplt/
  1. 执行脚本迁移分析任务

参数说明: - -i: 要进行迁移的原始脚本文件所在文件夹路径 - -o: 脚本迁移结果文件输出路径。 - -v: 脚本迁移结果文件输出路径。

./pytorch_gpu2npu.sh -i 原始脚本路径 -o 脚本迁移结果输出路径 -v 原始脚本框架版本
  1. 查看结果文件

├── xxx_msft/xxx_msft_multi              // 脚本迁移结果输出目录
│   ├── 生成脚本文件                 // 与迁移前的脚本文件目录结构一致
│   ├── msFmkTranspltlog.txt         // 脚本迁移过程日志文件,日志文件限制大小为1M,若超过限制将分多个文件进行存储,最多不会超过10个
│   ├── cuda_op_list.csv            //分析出的cuda算子列表
│   ├── unknown_api.csv             //支持情况存疑的API列表
│   ├── unsupported_api.csv         //不支持的API列表
│   ├── change_list.csv              // 修改记录文件
│   ├── run_distributed_npu.sh       // 多卡启动shell脚本
│   ├── ascend_function              // 如果启用了Replace Unsupported APIs参数,会生成该包含等价算子的目录
│   ├── ascend_modelarts_function
│      ├── modelarts_path_manager.py    // 启用ModelArts参数,会生成该路径映射适配层代码文件
│      ├── path_mapping_config.py       // 启用ModelArts参数,会生成该路径映射配置文件

关于迁移工具的高级功能,请见昇腾文档《分析迁移工具》中的”msFmkTransplt”章节。

迁移单卡脚本为多卡脚本

目前节点仅支持单机多卡(最多8卡)

  1. 在主函数中适当位置修改训练代码

#传入local_rank, world_size
local_rank = int(os.environ["LOCAL_RANK"])
world_size = int(os.environ["WORLD_SIZE"])

#用local_rank自动获取device号
device = torch.device('npu', local_rank)

#初始化,将通信方式设置为hccl
torch.distributed.init_process_group(backend="hccl",rank=local_rank)

#在初始化时确定当前的device
torch_npu.npu.set_device(device)

#获取训练数据集后,设置train_sampler
train_sampler = torch.utils.data.distributed.DistributedSampler(train_data)

#定义模型后,开启DDP模式
model = torch.nn.parallel.DistributedDataParallel(model, device_ids=[local_rank], output_device=local_rank)

#将train_dataloader与train_sampler相结合
train_dataloader = DataLoader(dataset = train_data, batch_size=batch_size, sampler = train_sampler)
  1. 编写拉起多卡训练脚本

脚本命名为train.sh

#两卡训练示例脚本
source /opt/Ascend/ascend-toolkit/set_env.sh
cur_path=`pwd`
if [ $(uname -m) = "aarch64" ]
then
    #配置多卡端口
    export MASTER_ADDR=127.0.0.1
    export MASTER_PORT=29500
    export WORLD_SIZE=2
    #配置多进程绑核
    for i in $(seq 0 1)
    do
            export LOCAL_RANK=$i
            let p_start=0+24*i
            let p_end=23+24*i
            #启动训练,参数根据训练代码进行自定义
            nohup taskset -c $p_start-$p_end python3 -u train.py --local_rank=$i > ${cur_path}/train.log 2>&1 &
    done
else
    python3 -m torch.distributed.launch --nproc_per_node=2 train.py > ${cur_path}/train_x86.log 2>&1 &
fi
  1. 启动多卡训练

bash ./train.sh

参考资料

https://www.hiascend.com/document/detail/zh/canncommercial/70RC1/envdeployment/instg/instg_0084.html

https://gitee.com/ascend/modelzoo

FAQ


最后更新: 2024 年 05 月 11 日