You can not select more than 25 topics Topics must start with a chinese character,a letter or number, can include dashes ('-') and can be up to 35 characters long.

README.md 5.2 kB

2 years ago
2 years ago
2 years ago
2 years ago
2 years ago
2 years ago
2 years ago
2 years ago
2 years ago
2 years ago
2 years ago
2 years ago
2 years ago
2 years ago
2 years ago
2 years ago
2 years ago
2 years ago
2 years ago
2 years ago
2 years ago
2 years ago
123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133
  1. # 如何在启智平台上进行模型调试和训练—GPU_手写数字识别示例
  2. ## 一 ,数据集及预训练模型准备
  3. ##### 1,数据集说明:
  4. 数据集可从本项目的数据集中引用,[数据集引用](https://openi.pcl.ac.cn/OpenIOSSG/OpenI_Cloudbrain_Example/datasets)
  5. - MnistDataset_torch数据集是由10类28∗28的灰度图片组成,训练数据集包含60000张图片,测试数据集包含10000张图片。
  6. - MnistDataset_torch.zip数据集压缩包的目录结构如下:
  7. > MnistDataset_torch.zip
  8. >
  9. > ├── test
  10. >
  11. > └── train
  12. >
  13. ##### 2,预训练模型说明:
  14. Torch_MNIST_Example_Model模型可从本项目的模型目录中引用,[预训练模型引用](https://openi.pcl.ac.cn/OpenIOSSG/OpenI_Cloudbrain_Example/modelmanage/show_model)
  15. * Torch_MNIST_Example_Model模型的目录结构如下:
  16. > Torch_MNIST_Example_Model
  17. > ├── mnist_epoch1_0.76.pkl
  18. >
  19. ## 二. 如何在云脑上获取代码路径,数据集路径,预训练模型路径,输出路径
  20. ##### 1,准备数据
  21. ```
  22. from c2net.context import prepare
  23. c2net_context = prepare()
  24. ```
  25. ##### 2,获取代码路径
  26. ```
  27. code_path = c2net_context.code_path +"/" +"项目名".lower()
  28. 在本示例中代码路径为:
  29. code_path = c2net_context.code_path + "/" + "Openl_Cloudbrain_Example".lower()
  30. ```
  31. ##### 3,获取数据集路径
  32. ```
  33. dataset_path = c2net_context.dataset_path +"/" +"数据集名称"
  34. 在本示例中代码路径为:
  35. dataset_path = c2net_context.dataset_path + "/" + "MnistDataset_torch"
  36. ```
  37. ##### 4,获取预训练模型路径
  38. ```
  39. pretrain_model_path = c2net_context.pretrain_model_path +"/" +"模型名称"
  40. 在本示例中预训练模型路径为:
  41. pretrain_model_path = c2net_context.pretrain_model_path + "/" + "Torch_MNIST_Example_Model"
  42. ```
  43. ##### 5,获取输出路径
  44. ```
  45. output_path = c2net_context.output_path
  46. 在本示例中输出路径为:
  47. output_path = c2net_context.output_path
  48. ```
  49. ##### 6,回传结果
  50. ```
  51. from c2net.context import upload_output
  52. upload_output()
  53. 在本示例中回传结果为(只有训练任务才能回传结果):
  54. from c2net.context import prepare,upload_output
  55. upload_output()
  56. ```
  57. ## 三.GPU样例准备
  58. ##### 1,gpu示例代码:
  59. - 训练任务单卡示例请参考示例中[train.py](./train.py)的代码注释
  60. - 推理任务示例请参考示例中[inference.py](./inference.py)的代码注释
  61. ##### 2,创建GPU调试任务
  62. 表1创建训练作业界面参数说明
  63. | 参数名称 | 说明 |
  64. | -------- | ----------------------------------------------------------------------------------- |
  65. | 代码分支 | 选择仓库代码中要使用的代码分支,默认可选择master分支 |
  66. | 镜像 | 镜像选择含有python和torch的镜像 |
  67. | 启动文件 | 启动文件选择代码目录下的启动脚本,在本示例中选择gpu_mnist_example/train.py |
  68. | 数据集 | 数据集选择MnistDataset_torch.zip |
  69. | 运行参数 | 选择增加运行参数可以向脚本中其他参数传值,如epoch_size,需要在代码里定义增加的超参数 |
  70. | 资源规格 | 规格选择[GPU] |
  71. | 模型 | 模型选择Torch_MNIST_Example_Model |
  72. 启动调试任务后,先执行prepare()进行数据准备;
  73. 进入对应的代码目录后,可在终端执行python train.py;
  74. ##### 3,创建GPU训练任务
  75. 表2 创建训练作业界面参数说明
  76. | 参数名称 | 说明 |
  77. | -------- | ----------------------------------------------------------------------------------- |
  78. | 代码分支 | 选择仓库代码中要使用的代码分支,默认可选择master分支 |
  79. | 镜像 | 镜像选择含有python和torch的镜像 |
  80. | 启动文件 | 启动文件选择代码目录下的启动脚本,在本示例中选择gpu_mnist_example/train.py |
  81. | 数据集 | 数据集选择MnistDataset_torch.zip |
  82. | 运行参数 | 选择增加运行参数可以向脚本中其他参数传值,如epoch_size,需要在代码里定义增加的超参数 |
  83. | 资源规格 | 规格选择[GPU] |
  84. | 模型 | 模型选择Torch_MNIST_Example_Model |
  85. 启动训练任务后,训练结束会在任务的结果下载页提供输出结果下载
  86. ## 四.GPU任务注意事项
  87. ##### 1, 使用超参数的方法
  88. 请在代码中加入
  89. ```
  90. import parser
  91. args, unknown = parser.parse_known_args()
  92. #可忽略掉 `--ckpt_url`,`--data_url`, `--multi_date_url`等参数无定义导致的报错问题
  93. ```
  94. ## 对于示例代码有任何问题,欢迎在本项目中提issue。

No Description