diff --git a/README.md b/README.md index 56e39d7..81dcd0d 100644 --- a/README.md +++ b/README.md @@ -1,11 +1,12 @@ # 如何在启智平台上进行模型训练 - NPU版本 -- 单数据集的训练,多数据集的训练,智算网络的训练,单数据集的推理,这4个的训练使用方式不同,请注意区分: +- 单数据集的训练,多数据集的训练,智算网络的训练,单数据集的推理,这4个的训练使用方式不同,请注意区分(以下环境默认是训练环境): - 单数据集的训练示例请参考示例中[train.py](https://git.openi.org.cn/OpenIOSSG/MNIST_Example/src/branch/master/train.py)的代码注释 - 多数据集的训练示例请参考示例中[train_for_multidataset.py](https://git.openi.org.cn/OpenIOSSG/MNIST_Example/src/branch/master/train_for_multidataset.py)的代码注释 - 智算网络的训练示例请参考示例中[train_for_c2net.py](https://git.openi.org.cn/OpenIOSSG/MNIST_Example/src/branch/master/train_for_c2net.py)的代码注释 - 单数据集推理的示例请参考示例中[inference.py](https://git.openi.org.cn/OpenIOSSG/MNIST_Example/src/branch/master/inference.py)的代码注释 - 多卡并行训练的示例请参考示例中[train_dataparallel.py](https://git.openi.org.cn/OpenIOSSG/MNIST_Example/src/branch/master/train_dataparallel.py)的代码,更多关于分布式训练的教程可参考mindspore官网教程[mindspore分布式训练教程](https://www.mindspore.cn/tutorial/training/zh-CN/r1.2/advanced_use/distributed_training_ascend.html) + - 在调试环境下多卡并行训练的示例请参考示例中[train_dataparallel_debug_env.py](https://git.openi.org.cn/OpenIOSSG/MNIST_Example/src/branch/master/train_dataparallel_debug_env.py)的代码和[run.sh](https://git.openi.org.cn/OpenIOSSG/MNIST_Example/src/branch/master/run.sh)的脚本。在终端执行bash run.sh; 更多关于裸机下分布式训练的教程可参考mindspore官网教程[调试环境下mindspore分布式训练教程](https://www.mindspore.cn/tutorials/experts/zh-CN/r1.7/parallel/train_ascend.html?highlight=%E5%B9%B6%E8%A1%8C#%E5%8D%95%E6%9C%BA%E5%A4%9A%E5%8D%A1%E8%AE%AD%E7%BB%83) ## 1 概述 - 本项目以LeNet-MNIST为例,简要介绍如何在启智AI协同平台上使用MindSpore完成训练任务,并提供单数据集的训练,多数据集的训练,智算网络的训练,单数据集推理等训练代码示例,旨在为AI开发者提供启智npu训练示例。对于示例代码有任何问题,欢迎在本项目中提issue。