盘古模型代码及领导:https://gitee.com/mindspore/m…环境:华为云ModelArts ;Ascend:8Ascend 910;Mindspore 1.5.1;PyTorch 1.8一、【盘古数据集生成】1.将数据集转换成TXT文档(编码:UTF-8)2.上传至工作根目录data文件夹中 3.执行指令 :python -m src.preprocess –input_glob ‘data/.txt’ –tokenizer gpt –eot 50256 –data_column_name input_ids –seq_length 1025(须要提前pip sentencepiece、jieba、transformers、torch ) 生成后果如图:
二:【盘古模型初始化】间接运行代码会产生无奈初始化的问题,因为一般开发者没有root权限,无奈获取hccl_8p.json文件,并且客服明确回复因为平安问题无奈放开root权限。1.依据昇腾文档: https://www.hiascend.com/docu… 模板自行配置盘古模型初始化文件hccl_8p.json文档中的阐明“能够在以后Server执行指令cat /etc/hccn.conf获取网卡IP”,同样因为没有root权限无奈获取实在IP。同时留神到 https://support.huaweicloud.c… 中有这样一段话: AI Server中的第0/4,1/5,2/6,3/7号网卡需处于同一网段,第0/1/2/3号网卡在不同网段,第4/5/6/7号网卡在不同网段。最终本次试验hccl_8p.json文件见附件(hccl_8p.txt)2.配置好json文件后在terminal中执行相干指令:bash scripts/run_distribute_train.sh /home/ma-user/work/data/ /home/ma-user/work/hccl_8p.json 8 fp32 2.6B 1 1 8 0 8,能够运行且没有中断,所配置的IP是无效的,ModelArts工程师也阐明了这一点
3.运行之后,资源监控处能够看到占用N卡,模型正在训练并且生成了右边的strategy.ckpt文件,log中的warning是精度问题能够疏忽,参考:https://bbs.huaweicloud.com/f…
4.因为AICore显示为0%,因而询问了华为云工程师给出了可能的起因:
同时华为云工程师也进行了后盾检测,AICore实际上在训练,只是没有返回使用率:
5.模型胜利进入训练,盘古模型训练工夫较长,因为平台时限,最终中断。
发表回复