You can not select more than 25 topics Topics must start with a chinese character,a letter or number, can include dashes ('-') and can be up to 35 characters long.

README_CN.md 22 kB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183184185186187188189190191192193194195196197198199200201202203204205206207208209210211212213214215216217218219220221222223224225226227228229230231232233234235236237238239240241242243244245246247248249250251252253254255256257258259260261262263264265266267268269270271272273274275276277278279280281282283284285286287288289290291292293294295296297298299300301302303304305306307308309310311312313314315316317318319320321322323324325326327328329330331332333334335336337338339340341342343344345346347348349350351352353354355356357358359360361362363364365366367368369370371372373374375376377378379380381382383384385386387388389390391392393394395396397398399400401402403404405406407408409410411412413414415416417418419420421422423424425426427428429430431432433434435436437438439440441442443444445446447448449450451452453454455456457458459460461462463464465466467468469470471472473474475476477478479480481482483484485486487488489490491492493494495496497498499500501502503504505506507508509510511512513514515516
  1. # 目录
  2. <!-- TOC -->
  3. - [目录](#目录)
  4. - [GoogleNet描述](#googlenet描述)
  5. - [模型架构](#模型架构)
  6. - [数据集](#数据集)
  7. - [特性](#特性)
  8. - [混合精度](#混合精度)
  9. - [环境要求](#环境要求)
  10. - [快速入门](#快速入门)
  11. - [脚本说明](#脚本说明)
  12. - [脚本及样例代码](#脚本及样例代码)
  13. - [脚本参数](#脚本参数)
  14. - [训练过程](#训练过程)
  15. - [训练](#训练)
  16. - [分布式训练](#分布式训练)
  17. - [评估过程](#评估过程)
  18. - [评估](#评估)
  19. - [模型描述](#模型描述)
  20. - [性能](#性能)
  21. - [评估性能](#评估性能)
  22. - [CIFAR-10上的GoogleNet](#cifar-10上的googlenet)
  23. - [120万张图像上的GoogleNet](#120万张图像上的googlenet)
  24. - [推理性能](#推理性能)
  25. - [CIFAR-10上的GoogleNet](#cifar-10上的googlenet-1)
  26. - [120万张图像上的GoogleNet](#120万张图像上的googlenet-1)
  27. - [使用流程](#使用流程)
  28. - [推理](#推理)
  29. - [继续训练预训练模型](#继续训练预训练模型)
  30. - [迁移学习](#迁移学习)
  31. - [随机情况说明](#随机情况说明)
  32. - [ModelZoo主页](#modelzoo主页)
  33. <!-- /TOC -->
  34. # GoogleNet描述
  35. GoogleNet是2014年提出的22层深度网络,在2014年ImageNet大型视觉识别挑战赛(ILSVRC14)中获得第一名。 GoogleNet,也称Inception v1,比ZFNet(2013年获奖者)和AlexNet(2012年获奖者)改进明显,与VGGNet相比,错误率相对较低。 深度学习网络包含的参数更多,更容易过拟合。网络规模变大也会增加使用计算资源。为了解决这些问题,GoogleNet采用1*1卷积核来降维,从而进一步减少计算量。在网络末端使用全局平均池化,而不是使用全连接的层。 inception模块为相同的输入设置不同大小的卷积,并堆叠所有输出。
  36. [论文](https://arxiv.org/abs/1409.4842):Christian Szegedy, Wei Liu, Yangqing Jia, Pierre Sermanet, Scott Reed, Dragomir Anguelov, Dumitru Erhan, Vincent Vanhoucke, Andrew Rabinovich."Going deeper with convolutions."*Proceedings of the IEEE conference on computer vision and pattern recognition*.2015.
  37. # 模型架构
  38. GoogleNet由多个inception模块串联起来,可以更加深入。 降维的inception模块一般包括**1×1卷积**、**3×3卷积**、**5×5卷积**和**3×3最大池化**,同时完成前一次的输入,并在输出处再次堆叠在一起。
  39. # 数据集
  40. 使用的数据集:[CIFAR-10](<http://www.cs.toronto.edu/~kriz/cifar.html>)
  41. - 数据集大小:175M,共10个类、6万张32*32彩色图像
  42. - 训练集:146M,共5万张图像
  43. - 测试集:29M,共1万张图像
  44. - 数据格式:二进制文件
  45. - 注:数据将在src/dataset.py中处理。
  46. 所用数据集可参照论文。
  47. - 数据集大小:125G,共1000个类、125万张彩色图像
  48. - 训练集:120G,共120万张图像
  49. - 测试集:5G,共5万张图像
  50. - 数据格式:RGB
  51. - 注:数据将在src/dataset.py中处理。
  52. # 特性
  53. ## 混合精度
  54. 采用[混合精度](https://www.mindspore.cn/tutorial/training/zh-CN/master/advanced_use/enable_mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
  55. 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
  56. # 环境要求
  57. - 硬件(Ascend/GPU)
  58. - 使用Ascend或GPU处理器来搭建硬件环境。如需试用Ascend处理器,请发送[申请表](https://obs-9be7.obs.cn-east-2.myhuaweicloud.com/file/other/Ascend%20Model%20Zoo%E4%BD%93%E9%AA%8C%E8%B5%84%E6%BA%90%E7%94%B3%E8%AF%B7%E8%A1%A8.docx)至ascend@huawei.com,审核通过即可获得资源。
  59. - 框架
  60. - [MindSpore](https://www.mindspore.cn/install/en)
  61. - 如需查看详情,请参见如下资源:
  62. - [MindSpore教程](https://www.mindspore.cn/tutorial/training/zh-CN/master/index.html)
  63. - [MindSpore Python API](https://www.mindspore.cn/doc/api_python/en/master/index.html)
  64. # 快速入门
  65. 通过官方网站安装MindSpore后,您可以按照如下步骤进行训练和评估:
  66. - Ascend处理器环境运行
  67. ```python
  68. # 运行训练示例
  69. python train.py > train.log 2>&1 &
  70. # 运行分布式训练示例
  71. sh scripts/run_train.sh rank_table.json
  72. # 运行评估示例
  73. python eval.py > eval.log 2>&1 &
  74. sh run_eval.sh
  75. ```
  76. 对于分布式训练,需要提前创建JSON格式的hccl配置文件。
  77. 请遵循以下链接中的说明:
  78. <https://gitee.com/mindspore/mindspore/tree/master/model_zoo/utils/hccl_tools.>
  79. - GPU处理器环境运行
  80. 为了在GPU处理器环境运行,请将配置文件src/config.py中的`device_target`从`Ascend`改为`GPU`
  81. ```python
  82. # 运行训练示例
  83. export CUDA_VISIBLE_DEVICES=0
  84. python train.py > train.log 2>&1 &
  85. # 运行分布式训练示例
  86. sh scripts/run_train_gpu.sh 8 0,1,2,3,4,5,6,7
  87. # 运行评估示例
  88. python eval.py --checkpoint_path=[CHECKPOINT_PATH] > eval.log 2>&1 &
  89. OR
  90. sh run_eval_gpu.sh [CHECKPOINT_PATH]
  91. ```
  92. 默认使用CIFAR-10数据集。您也可以将`$dataset_type`传入脚本,以便选择其他数据集。如需查看更多详情,请参考指定脚本。
  93. # 脚本说明
  94. ## 脚本及样例代码
  95. ```bash
  96. ├── model_zoo
  97. ├── README.md // 所有模型相关说明
  98. ├── googlenet
  99. ├── README.md // googlenet相关说明
  100. ├── scripts
  101. │ ├──run_train.sh // 分布式到Ascend的shell脚本
  102. │ ├──run_train_gpu.sh // 分布式到GPU处理器的shell脚本
  103. │ ├──run_eval.sh // Ascend评估的shell脚本
  104. │ ├──run_eval_gpu.sh // GPU处理器评估的shell脚本
  105. ├── src
  106. │ ├──dataset.py // 创建数据集
  107. │ ├──googlenet.py // googlenet架构
  108. │ ├──config.py // 参数配置
  109. ├── train.py // 训练脚本
  110. ├── eval.py // 评估脚本
  111. ├── export.py // 将checkpoint文件导出到air/onnx下
  112. ```
  113. ## 脚本参数
  114. 在config.py中可以同时配置训练参数和评估参数。
  115. - 配置GoogleNet和CIFAR-10数据集。
  116. ```python
  117. 'pre_trained':'False' # 是否基于预训练模型训练
  118. 'nump_classes':10 # 数据集类数
  119. 'lr_init':0.1 # 初始学习率
  120. 'batch_size':128 # 训练批次大小
  121. 'epoch_size':125 # 总计训练epoch数
  122. 'momentum':0.9 # 动量
  123. 'weight_decay':5e-4 # 权重衰减值
  124. 'image_height':224 # 输入到模型的图像高度
  125. 'image_width':224 # 输入到模型的图像宽度
  126. 'data_path':'./cifar10' # 训练和评估数据集的绝对全路径
  127. 'device_target':'Ascend' # 运行设备
  128. 'device_id':4 # 用于训练或评估数据集的设备ID使用run_train.sh进行分布式训练时可以忽略。
  129. 'keep_checkpoint_max':10 # 只保存最后一个keep_checkpoint_max检查点
  130. 'checkpoint_path':'./train_googlenet_cifar10-125_390.ckpt' # checkpoint文件保存的绝对全路径
  131. 'onnx_filename':'googlenet.onnx' # export.py中使用的onnx模型文件名
  132. 'geir_filename':'googlenet.geir' # export.py中使用的geir模型文件名
  133. ```
  134. 更多配置细节请参考脚本`config.py`。
  135. ## 训练过程
  136. ### 训练
  137. - Ascend处理器环境运行
  138. ```bash
  139. python train.py > train.log 2>&1 &
  140. ```
  141. 上述python命令将在后台运行,您可以通过train.log文件查看结果。
  142. 训练结束后,您可在默认脚本文件夹下找到检查点文件。采用以下方式达到损失值:
  143. ```bash
  144. # grep "loss is " train.log
  145. epoch:1 step:390, loss is 1.4842823
  146. epcoh:2 step:390, loss is 1.0897788
  147. ...
  148. ```
  149. 模型检查点保存在当前目录下。
  150. - GPU处理器环境运行
  151. ```bash
  152. export CUDA_VISIBLE_DEVICES=0
  153. python train.py > train.log 2>&1 &
  154. ```
  155. 上述python命令将在后台运行,您可以通过train.log文件查看结果。
  156. 训练结束后,您可在默认`./ckpt_0/`脚本文件夹下找到检查点文件。
  157. ### 分布式训练
  158. - Ascend处理器环境运行
  159. ```bash
  160. sh scripts/run_train.sh rank_table.json
  161. ```
  162. 上述shell脚本将在后台运行分布训练。您可以通过train_parallel[X]/log文件查看结果。采用以下方式达到损失值:
  163. ```bash
  164. # grep "result:" train_parallel*/log
  165. train_parallel0/log:epoch:1 step:48, loss is 1.4302931
  166. train_parallel0/log:epcoh:2 step:48, loss is 1.4023874
  167. ...
  168. train_parallel1/log:epoch:1 step:48, loss is 1.3458025
  169. train_parallel1/log:epcoh:2 step:48, loss is 1.3729336
  170. ...
  171. ...
  172. ```
  173. - GPU处理器环境运行
  174. ```bash
  175. sh scripts/run_train_gpu.sh 8 0,1,2,3,4,5,6,7
  176. ```
  177. 上述shell脚本将在后台运行分布训练。您可以通过train/train.log文件查看结果。
  178. ## 评估过程
  179. ### 评估
  180. - 在Ascend环境运行时评估CIFAR-10数据集
  181. 在运行以下命令之前,请检查用于评估的检查点路径。请将检查点路径设置为绝对全路径,例如“username/googlenet/train_googlenet_cifar10-125_390.ckpt”。
  182. ```bash
  183. python eval.py > eval.log 2>&1 &
  184. OR
  185. sh scripts/run_eval.sh
  186. ```
  187. 上述python命令将在后台运行,您可以通过eval.log文件查看结果。测试数据集的准确性如下:
  188. ```bash
  189. # grep "accuracy:" eval.log
  190. accuracy:{'acc':0.934}
  191. ```
  192. 注:对于分布式训练后评估,请将checkpoint_path设置为最后保存的检查点文件,如“username/googlenet/train_parallel0/train_googlenet_cifar10-125_48.ckpt”。测试数据集的准确性如下:
  193. ```bash
  194. # grep "accuracy:" dist.eval.log
  195. accuracy:{'acc':0.9217}
  196. ```
  197. - 在GPU处理器环境运行时评估CIFAR-10数据集
  198. 在运行以下命令之前,请检查用于评估的检查点路径。请将检查点路径设置为绝对全路径,例如“username/googlenet/train/ckpt_0/train_googlenet_cifar10-125_390.ckpt”。
  199. ```bash
  200. python eval.py --checkpoint_path=[CHECKPOINT_PATH] > eval.log 2>&1 &
  201. ```
  202. 上述python命令将在后台运行,您可以通过eval.log文件查看结果。测试数据集的准确性如下:
  203. ```bash
  204. # grep "accuracy:" eval.log
  205. accuracy:{'acc':0.930}
  206. ```
  207. 或者,
  208. ```bash
  209. sh scripts/run_eval_gpu.sh [CHECKPOINT_PATH]
  210. ```
  211. 上述python命令将在后台运行,您可以通过eval/eval.log文件查看结果。测试数据集的准确性如下:
  212. ```bash
  213. # grep "accuracy:" eval/eval.log
  214. accuracy:{'acc':0.930}
  215. ```
  216. # 模型描述
  217. ## 性能
  218. ### 评估性能
  219. #### CIFAR-10上的GoogleNet
  220. | 参数 | Ascend | GPU |
  221. | -------------------------- | ----------------------------------------------------------- | ---------------------- |
  222. | 模型版本 | Inception V1 | Inception V1 |
  223. | 资源 | Ascend 910 ;CPU 2.60GHz,192核;内存:755G | NV SMX2 V100-32G |
  224. | 上传日期 | 2020-08-31 | 2020-08-20 |
  225. | MindSpore版本 | 0.7.0-alpha | 0.6.0-alpha |
  226. | 数据集 | CIFAR-10 | CIFAR-10 |
  227. | 训练参数 | epoch=125, steps=390, batch_size = 128, lr=0.1 | epoch=125, steps=390, batch_size=128, lr=0.1 |
  228. | 优化器 | Momentum | Momentum |
  229. | 损失函数 | Softmax交叉熵 | Softmax交叉熵 |
  230. | 输出 | 概率 | 概率 |
  231. | 损失 | 0.0016 | 0.0016 |
  232. | 速度 | 单卡:79毫秒/步; 8卡:82毫秒/步 | 单卡:150毫秒/步; 8卡:164毫秒/步 |
  233. | 总时长 | 单卡:63.85分钟; 8卡:11.28分钟 | 单卡:126.87分钟; 8卡:21.65分钟 |
  234. | 参数(M) | 13.0 | 13.0 |
  235. | 微调检查点 | 43.07M (.ckpt文件) | 43.07M (.ckpt文件) |
  236. | 推理模型 | 21.50M (.onnx文件), 21.60M(.air文件) | |
  237. | 脚本 | [googlenet脚本](https://gitee.com/mindspore/mindspore/tree/r0.7/model_zoo/official/cv/googlenet) | [googlenet 脚本](https://gitee.com/mindspore/mindspore/tree/r0.6/model_zoo/official/cv/googlenet) |
  238. #### 120万张图像上的GoogleNet
  239. | 参数 | Ascend |
  240. | -------------------------- | ----------------------------------------------------------- |
  241. | 模型版本 | Inception V1 |
  242. | 资源 | Ascend 910, CPU 2.60GHz, 56核, 内存:314G |
  243. | 上传日期 | 2020-09-20 |
  244. | MindSpore版本 | 0.7.0-alpha |
  245. | 数据集 | 120万张图像 |
  246. | 训练参数 | epoch=300, steps=5000, batch_size=256, lr=0.1 |
  247. | 优化器 | Momentum |
  248. | 损失函数 | Softmax交叉熵 |
  249. | 输出 | 概率 |
  250. | 损失 | 2.0 |
  251. | 速度 | 单卡:152毫秒/步; 8卡:171毫秒/步 |
  252. | 总时长 | 8卡:8.8小时 |
  253. | 参数(M) | 13.0 |
  254. | 微调检查点 | 52M (.ckpt文件) |
  255. | 脚本 | [googlenet脚本](https://gitee.com/mindspore/mindspore/tree/r0.7/model_zoo/official/cv/googlenet) |
  256. ### 推理性能
  257. #### CIFAR-10上的GoogleNet
  258. | 参数 | Ascend | GPU |
  259. | ------------------- | --------------------------- | --------------------------- |
  260. | 模型版本 | Inception V1 | Inception V1 |
  261. | 资源 | Ascend 910 | GPU |
  262. | 上传日期 | 2020-08-31 | 2020-08-20 |
  263. | MindSpore 版本 | 0.7.0-alpha | 0.6.0-alpha |
  264. | 数据集 | CIFAR-10, 1万张图像 | CIFAR-10, 1万张图像 |
  265. | batch_size | 128 | 128 |
  266. | 输出 | 概率 | 概率 |
  267. | 准确性 | 单卡: 93.4%; 8卡:92.17% | 单卡:93%, 8卡:92.89% |
  268. | 推理模型 | 21.50M (.onnx文件) | |
  269. #### 120万张图像上的GoogleNet
  270. | 参数 | Ascend |
  271. | ------------------- | --------------------------- |
  272. | 模型版本 | Inception V1 |
  273. | 资源 | Ascend 910 |
  274. | 上传日期 | 2020-09-20 |
  275. | MindSpore版本 | 0.7.0-alpha |
  276. | 数据集 | 12万张图像 |
  277. | batch_size | 256 |
  278. | 输出 | 概率 |
  279. | 准确性 | 8卡: 71.81% |
  280. ## 使用流程
  281. ### 推理
  282. 如果您需要使用此训练模型在GPU、Ascend 910、Ascend 310等多个硬件平台上进行推理,可参考此[链接](https://www.mindspore.cn/tutorial/training/en/master/advanced_use/migrate_3rd_scripts.html)。下面是操作步骤示例:
  283. - Ascend处理器环境运行
  284. ```python
  285. # 设置上下文
  286. context.set_context(mode=context.GRAPH_HOME, device_target=cfg.device_target)
  287. context.set_context(device_id=cfg.device_id)
  288. # 加载未知数据集进行推理
  289. dataset = dataset.create_dataset(cfg.data_path, 1, False)
  290. # 定义模型
  291. net = GoogleNet(num_classes=cfg.num_classes)
  292. opt = Momentum(filter(lambda x: x.requires_grad, net.get_parameters()), 0.01,
  293. cfg.momentum, weight_decay=cfg.weight_decay)
  294. loss = nn.SoftmaxCrossEntropyWithLogits(sparse=True, reduction='mean',
  295. is_grad=False)
  296. model = Model(net, loss_fn=loss, optimizer=opt, metrics={'acc'})
  297. # 加载预训练模型
  298. param_dict = load_checkpoint(cfg.checkpoint_path)
  299. load_param_into_net(net, param_dict)
  300. net.set_train(False)
  301. # 对未知数据集进行预测
  302. acc = model.eval(dataset)
  303. print("accuracy:", acc)
  304. ```
  305. - GPU处理器环境运行
  306. ```python
  307. # 设置上下文
  308. context.set_context(mode=context.GRAPH_HOME, device_target="GPU")
  309. # 加载未知数据集进行推理
  310. dataset = dataset.create_dataset(cfg.data_path, 1, False)
  311. # 定义模型
  312. net = GoogleNet(num_classes=cfg.num_classes)
  313. opt = Momentum(filter(lambda x: x.requires_grad, net.get_parameters()), 0.01,
  314. cfg.momentum, weight_decay=cfg.weight_decay)
  315. loss = nn.SoftmaxCrossEntropyWithLogits(sparse=True, reduction='mean',
  316. is_grad=False)
  317. model = Model(net, loss_fn=loss, optimizer=opt, metrics={'acc'})
  318. # 加载预训练模型
  319. param_dict = load_checkpoint(args_opt.checkpoint_path)
  320. load_param_into_net(net, param_dict)
  321. net.set_train(False)
  322. # Make predictions on the unseen dataset
  323. acc = model.eval(dataset)
  324. print("accuracy:", acc)
  325. ```
  326. ### 继续训练预训练模型
  327. - Ascend处理器环境运行
  328. ```python
  329. # 加载数据集
  330. dataset = create_dataset(cfg.data_path, 1)
  331. batch_num = dataset.get_dataset_size()
  332. # 定义模型
  333. net = GoogleNet(num_classes=cfg.num_classes)
  334. # 若pre_trained为True,继续训练
  335. if cfg.pre_trained:
  336. param_dict = load_checkpoint(cfg.checkpoint_path)
  337. load_param_into_net(net, param_dict)
  338. lr = lr_steps(0, lr_max=cfg.lr_init, total_epochs=cfg.epoch_size,
  339. steps_per_epoch=batch_num)
  340. opt = Momentum(filter(lambda x: x.requires_grad, net.get_parameters()),
  341. Tensor(lr), cfg.momentum, weight_decay=cfg.weight_decay)
  342. loss = nn.SoftmaxCrossEntropyWithLogits(sparse=True, reduction='mean', is_grad=False)
  343. model = Model(net, loss_fn=loss, optimizer=opt, metrics={'acc'},
  344. amp_level="O2", keep_batchnorm_fp32=False, loss_scale_manager=None)
  345. # 设置回调
  346. config_ck = CheckpointConfig(save_checkpoint_steps=batch_num * 5,
  347. keep_checkpoint_max=cfg.keep_checkpoint_max)
  348. time_cb = TimeMonitor(data_size=batch_num)
  349. ckpoint_cb = ModelCheckpoint(prefix="train_googlenet_cifar10", directory="./",
  350. config=config_ck)
  351. loss_cb = LossMonitor()
  352. # 开始训练
  353. model.train(cfg.epoch_size, dataset, callbacks=[time_cb, ckpoint_cb, loss_cb])
  354. print("train success")
  355. ```
  356. - GPU处理器环境运行
  357. ```python
  358. # 加载数据集
  359. dataset = create_dataset(cfg.data_path, 1)
  360. batch_num = dataset.get_dataset_size()
  361. # 定义模型
  362. net = GoogleNet(num_classes=cfg.num_classes)
  363. # 若pre_trained为True,继续训练
  364. if cfg.pre_trained:
  365. param_dict = load_checkpoint(cfg.checkpoint_path)
  366. load_param_into_net(net, param_dict)
  367. lr = lr_steps(0, lr_max=cfg.lr_init, total_epochs=cfg.epoch_size,
  368. steps_per_epoch=batch_num)
  369. opt = Momentum(filter(lambda x: x.requires_grad, net.get_parameters()),
  370. Tensor(lr), cfg.momentum, weight_decay=cfg.weight_decay)
  371. loss = nn.SoftmaxCrossEntropyWithLogits(sparse=True, reduction='mean', is_grad=False)
  372. model = Model(net, loss_fn=loss, optimizer=opt, metrics={'acc'},
  373. amp_level="O2", keep_batchnorm_fp32=False, loss_scale_manager=None)
  374. # 设置回调
  375. config_ck = CheckpointConfig(save_checkpoint_steps=batch_num * 5,
  376. keep_checkpoint_max=cfg.keep_checkpoint_max)
  377. time_cb = TimeMonitor(data_size=batch_num)
  378. ckpoint_cb = ModelCheckpoint(prefix="train_googlenet_cifar10", directory="./ckpt_" + str(get_rank()) + "/",
  379. config=config_ck)
  380. loss_cb = LossMonitor()
  381. # 开始训练
  382. model.train(cfg.epoch_size, dataset, callbacks=[time_cb, ckpoint_cb, loss_cb])
  383. print("train success")
  384. ```
  385. ### 迁移学习
  386. 待补充
  387. # 随机情况说明
  388. 在dataset.py中,我们设置了“create_dataset”函数内的种子,同时还使用了train.py中的随机种子。
  389. # ModelZoo主页
  390. 请浏览官网[主页](https://gitee.com/mindspore/mindspore/tree/master/model_zoo)。