更新 'README.md'

This commit is contained in:
liuzx 2022-07-21 15:13:43 +08:00
parent 7f12cdd80f
commit a835fbd341
1 changed files with 2 additions and 1 deletions

View File

@ -1,11 +1,12 @@
# 如何在启智平台上进行模型训练 - NPU版本
- 单数据集的训练多数据集的训练智算网络的训练单数据集的推理这4个的训练使用方式不同请注意区分
- 单数据集的训练多数据集的训练智算网络的训练单数据集的推理这4个的训练使用方式不同请注意区分(以下环境默认是训练环境)
- 单数据集的训练示例请参考示例中[train.py](https://git.openi.org.cn/OpenIOSSG/MNIST_Example/src/branch/master/train.py)的代码注释
- 多数据集的训练示例请参考示例中[train_for_multidataset.py](https://git.openi.org.cn/OpenIOSSG/MNIST_Example/src/branch/master/train_for_multidataset.py)的代码注释
- 智算网络的训练示例请参考示例中[train_for_c2net.py](https://git.openi.org.cn/OpenIOSSG/MNIST_Example/src/branch/master/train_for_c2net.py)的代码注释
- 单数据集推理的示例请参考示例中[inference.py](https://git.openi.org.cn/OpenIOSSG/MNIST_Example/src/branch/master/inference.py)的代码注释
- 多卡并行训练的示例请参考示例中[train_dataparallel.py](https://git.openi.org.cn/OpenIOSSG/MNIST_Example/src/branch/master/train_dataparallel.py)的代码更多关于分布式训练的教程可参考mindspore官网教程[mindspore分布式训练教程](https://www.mindspore.cn/tutorial/training/zh-CN/r1.2/advanced_use/distributed_training_ascend.html)
- 在调试环境下多卡并行训练的示例请参考示例中[train_dataparallel_debug_env.py](https://git.openi.org.cn/OpenIOSSG/MNIST_Example/src/branch/master/train_dataparallel_debug_env.py)的代码和[run.sh](https://git.openi.org.cn/OpenIOSSG/MNIST_Example/src/branch/master/run.sh)的脚本。在终端执行bash run.sh; 更多关于裸机下分布式训练的教程可参考mindspore官网教程[调试环境下mindspore分布式训练教程](https://www.mindspore.cn/tutorials/experts/zh-CN/r1.7/parallel/train_ascend.html?highlight=%E5%B9%B6%E8%A1%8C#%E5%8D%95%E6%9C%BA%E5%A4%9A%E5%8D%A1%E8%AE%AD%E7%BB%83)
## 1 概述
- 本项目以LeNet-MNIST为例简要介绍如何在启智AI协同平台上使用MindSpore完成训练任务并提供单数据集的训练多数据集的训练智算网络的训练单数据集推理等训练代码示例旨在为AI开发者提供启智npu训练示例。对于示例代码有任何问题欢迎在本项目中提issue。