You can not select more than 25 topics Topics must start with a chinese character,a letter or number, can include dashes ('-') and can be up to 35 characters long.

mindspore.nn.Cell.rst 22 kB

4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183184185186187188189190191192193194195196197198199200201202203204205206207208209210211212213214215216217218219220221222223224225226227228229230231232233234235236237238239240241242243244245246247248249250251252253254255256257258259260261262263264265266267268269270271272273274275276277278279280281282283284285286287288289290291292293294295296297298299300301302303304305306307308309310311312313314315316317318319320321322323324325326327328329330331332333334335336337338339340341342343344345346347348349350351352353354355356357358359360361362363364365366367368369370371372373374375376377378379380381382383384385386387388389390391392393394395396397398399400401402403404405406407408409410411412413414415416417418419420421422423424425426427428429430431432433434435436437438439440441442443444445446447448449450451452453454455456457458459460461462463464465466467468469470471472473474475476477478479480481482483484485486487488489490491492493494495496497498499500501502503504505506507508509510511512513514515516517518519520521522523524525526527528529530531532533534535536537538539540541
  1. mindspore.nn.Cell
  2. ==================
  3. .. py:class:: mindspore.nn.Cell(auto_prefix=True, flags=None)
  4. MindSpore中神经网络的基本构成单元。模型或神经网络层应当继承该基类。
  5. `mindspore.nn` 中神经网络层也是Cell的子类,如 :class:`mindspore.nn.Conv2d`、:class:`mindspore.nn.ReLU`、 :class:`mindspore.nn.BatchNorm` 等。Cell在GRAPH_MODE(静态图模式)下将编译为一张计算图,在PYNATIVE_MODE(动态图模式)下作为神经网络的基础模块。
  6. **参数:**
  7. - **auto_prefix** (bool) – 是否自动为Cell及其子Cell生成NameSpace。`auto_prefix` 的设置影响网络参数的命名,如果设置为True,则自动给网络参数的名称添加前缀,否则不添加前缀。默认值:True。
  8. - **flags** (dict) - Cell的配置信息,目前用于绑定Cell和数据集。用户也通过该参数自定义Cell属性。默认值:None。
  9. .. py:method:: add_flags(**flags)
  10. 为Cell添加自定义属性。
  11. 在实例化Cell类时,如果入参flags不为空,会调用此方法。
  12. **参数:**
  13. - **flags** (dict) - Cell的配置信息,目前用于绑定Cell和数据集。用户也通过该参数自定义Cell属性。默认值:None。
  14. .. py:method:: add_flags_recursive(**flags)
  15. 如果Cell含有多个子Cell,此方法会递归得给所有子Cell添加自定义属性。
  16. **参数:**
  17. - **flags** (dict) - Cell的配置信息,目前用于绑定Cell和数据集。用户也通过该参数自定义Cell属性。默认值:None。
  18. .. py:method:: auto_parallel_compile_and_run()
  19. 是否在‘AUTO_PARALLEL’或‘SEMI_AUTO_PARALLEL’模式下执行编译流程。
  20. **返回:**
  21. bool, `_auto_parallel_compile_and_run` 的值。
  22. .. py:method:: bprop_debug
  23. :property:
  24. 在图模式下使用,用于标识是否使用自定义的反向传播函数。
  25. .. py:method:: cast_inputs(inputs, dst_type)
  26. 将输入转换为指定类型。
  27. **参数:**
  28. - **inputs** (tuple[Tensor]) - 输入。
  29. - **dst_type** (mindspore.dtype) - 指定的数据类型。
  30. **返回:**
  31. tuple[Tensor]类型,转换类型后的结果。
  32. .. py:method:: cast_param(param)
  33. 在PyNative模式下,根据自动混合精度的精度设置转换Cell中参数的类型。
  34. 该接口目前在自动混合精度场景下使用。
  35. **参数:**
  36. - **param** (Parameter) – 需要被转换类型的输入参数。
  37. **返回:**
  38. Parameter类型,转换类型后的参数。
  39. .. py:method:: cells()
  40. 返回当前Cell的子Cell的迭代器。
  41. **返回:**
  42. Iteration类型,Cell的子Cell。
  43. .. py:method:: cells_and_names(cells=None, name_prefix="")
  44. 递归地获取当前Cell及输入 `cells` 的所有子Cell的迭代器,包括Cell的名称及其本身。
  45. **参数:**
  46. - **cells** (str) – 需要进行迭代的Cell。默认值:None。
  47. - **name_prefix** (str) – 作用域。默认值:''。
  48. **返回:**
  49. Iteration类型,当前Cell及输入 `cells` 的所有子Cell和相对应的名称。
  50. .. py:method:: check_names()
  51. 检查Cell中的网络参数名称是否重复。
  52. .. py:method:: compile(*inputs)
  53. 编译Cell为计算图,输入需与construct中定义的输入一致。
  54. **参数:**
  55. - **inputs** (tuple) – Cell的输入。
  56. .. py:method:: compile_and_run(*inputs)
  57. 编译并运行Cell,输入需与construct中定义的输入一致。
  58. .. note::不推荐使用该函数,建议直接调用Cell实例
  59. **参数:**
  60. - **inputs** (tuple) – Cell的输入。
  61. **返回:**
  62. Object类型,执行的结果。
  63. .. py:method:: construct(*inputs, **kwargs)
  64. 定义要执行的计算逻辑。所有子类都必须重写此方法。
  65. **返回:**
  66. Tensor类型,返回计算结果。
  67. .. py:method:: exec_checkpoint_graph()
  68. 保存checkpoint图。
  69. .. py:method:: extend_repr()
  70. 在原有描述基础上扩展Cell的描述。
  71. 若需要在print时输出个性化的扩展信息,请在您的网络中重新实现此方法。
  72. .. py:method:: generate_scope()
  73. 为网络中的每个Cell对象生成NameSpace。
  74. .. py:method:: get_flags()
  75. 获取该Cell的自定义属性。自定义属性通过 `add_flags` 方法添加。
  76. .. py:method:: get_func_graph_proto()
  77. 返回图的二进制原型。
  78. .. py:method:: get_parameters(expand=True)
  79. 返回Cell中parameter的迭代器。
  80. **参数:**
  81. - **expand** (bool) – 如果为True,则递归地获取当前Cell和所有子Cell的parameter。否则,只生成当前Cell的子Cell的parameter。默认值:True。
  82. **返回:**
  83. Iteration类型,Cell的parameter。
  84. .. py:method:: get_scope()
  85. 返回Cell的作用域。
  86. **返回:**
  87. String类型,网络的作用域。
  88. .. py:method:: infer_param_pipeline_stage()
  89. 推导Cell中当前 `pipeline_stage` 的参数。
  90. .. note::
  91. - 如果某参数不属于任何已被设置 `pipeline_stage` 的Cell,此参数应使用 `add_pipeline_stage` 方法来添加它的 `pipeline_stage` 信息。
  92. - 如果某参数P被stageA和stageB两个不同stage的算子使用,那么参数P在使用 `infer_param_pipeline_stage` 之前,应使用 `P.add_pipeline_stage(stageA)` 和 `P.add_pipeline_stage(stageB)` 添加它的stage信息。
  93. **返回:**
  94. 属于当前 `pipeline_stage` 的参数。
  95. **异常:**
  96. - **RuntimeError** – 如果参数不属于任何stage。
  97. .. py:method:: insert_child_to_cell(child_name, child_cell)
  98. 将一个给定名称的子Cell添加到当前Cell。
  99. **参数:**
  100. - **child_name** (str) – 子Cell名称。
  101. - **child_cell** (Cell) – 要插入的子Cell。
  102. **异常:**
  103. - **KeyError** – 如果子Cell的名称不正确或与其他子Cell名称重复。
  104. - **TypeError** – 如果子Cell的类型不正确。
  105. .. py:method:: insert_param_to_cell(param_name, param, check_name_contain_dot=True)
  106. 向当前Cell添加参数。
  107. 将指定名称的参数添加到Cell中。目前在 `mindspore.nn.Cell.__setattr__` 中使用。
  108. **参数:**
  109. - **param_name** (str) – 参数名称。
  110. - **param** (Parameter) – 要插入到Cell的参数。
  111. - **check_name_contain_dot** (bool) – 是否对 `param_name` 中的"."进行检查。默认值:True。
  112. **异常:**
  113. - **KeyError** – 如果参数名称为空或包含"."。
  114. - **TypeError** – 如果参数的类型不是Parameter。
  115. .. py:method:: load_parameter_slice(params)
  116. 根据并行策略获取Tensor分片并替换原始参数。
  117. 请参考 `mindspore.common._Executor.compile` 源代码中的用法。
  118. **参数:**
  119. **params** (dict) – 用于初始化数据图的参数字典。
  120. .. py:method:: name_cells()
  121. 递归地获取一个Cell中所有子Cell的迭代器。
  122. 包括Cell名称和Cell本身。
  123. **返回:**
  124. Dict[String, Cell],Cell中的所有子Cell及其名称。
  125. .. py:method:: param_prefix
  126. :property:
  127. 当前Cell的子Cell的参数名前缀。
  128. .. py:method:: parameter_layout_dict
  129. :property:
  130. `parameter_layout_dict` 表示一个参数的张量layout,这种张量layout是由分片策略和分布式算子信息推断出来的。
  131. .. py:method:: parameters_and_names(name_prefix='', expand=True)
  132. 返回Cell中parameter的迭代器。
  133. 包含参数名称和参数本身。
  134. **参数:**
  135. - **name_prefix** (str): 作用域。默认值: ''。
  136. - **expand** (bool): 如果为True,则递归地获取当前Cell和所有子Cell的参数及名称;如果为False,只生成当前Cell的子Cell的参数及名称。默认值:True。
  137. **返回:**
  138. 迭代器,Cell的名称和Cell本身。
  139. .. py:method:: parameters_broadcast_dict(recurse=True)
  140. 获取这个Cell的参数广播字典。
  141. **参数:**
  142. - **recurse** (bool): 是否包含子Cell的参数。 默认: True。
  143. **返回:**
  144. OrderedDict, 返回参数广播字典。
  145. .. py:method:: parameters_dict(recurse=True)
  146. 获取此Cell的parameter字典。
  147. **参数:**
  148. - **recurse** (bool) – 是否递归得包含所有子Cell的parameter。默认值:True。
  149. **返回:**
  150. OrderedDict类型,返回参数字典。
  151. .. py:method:: recompute(**kwargs)
  152. 设置Cell重计算。Cell中输出算子以外的所有算子将被设置为重计算。如果一个算子的计算结果被输出到一些反向节点来进行梯度计算,且被设置成重计算,那么我们会在反向传播中重新计算它,而不去存储在前向传播中的中间激活层的计算结果。
  153. .. note::
  154. - 如果计算涉及到诸如随机化或全局变量之类的操作,那么目前还不能保证等价。
  155. - 如果该Cell中算子的重计算API也被调用,则该算子的重计算模式以算子的重计算API的设置为准。
  156. - 该接口仅配置一次,即当父Cell配置了,子Cell不需再配置。
  157. - Cell的输出算子默认不做重计算,这一点是基于我们减少内存占用的配置经验。如果一个Cell里面只有一个算子而且想要把这个算子设置为重计算的,那么请使用算子的重计算API。
  158. - 当应用了重计算且内存充足时,可以配置'mp_comm_recompute=False'来提升性能。
  159. - 当应用了重计算但内存不足时,可以配置'parallel_optimizer_comm_recompute=True'来节省内存。有相同融合group的Cell应该配置相同的parallel_optimizer_comm_recompute。
  160. **参数:**
  161. - **mp_comm_recompute** (bool) – 表示在自动并行或半自动并行模式下,指定Cell内部由模型并行引入的通信操作是否重计算。默认值:True。
  162. - **parallel_optimizer_comm_recompute** (bool) – 表示在自动并行或半自动并行模式下,指定Cell内部由优化器并行引入的AllGather通信是否重计算。默认值:False。
  163. .. py:method:: register_forward_pre_hook(hook_fn)
  164. 设置Cell对象的正向pre_hook函数。此函数仅在PyNative模式下支持。
  165. .. note::
  166. - hook_fn必须有如下代码定义。 `cell_id` 是已注册Cell对象的信息,包括名称和ID。 `inputs` 是网络正向传播时Cell对象的输入数据。用户可以在hook_fn中打印输入数据或者返回新的输入数据。
  167. - hook_fn返回新的输入数据或者None:hook_fn(cell_id, inputs) -> New inputs or None。
  168. - 为了避免脚本在切换到图模式时运行失败,不建议在Cell对象的 `construct` 函数中调用 `register_forward_pre_hook(hook_fn)`。
  169. **参数:**
  170. - **hook_fn** (function) – 捕获Cell对象信息和正向输入数据的hook_fn函数。
  171. **返回:**
  172. - **handle** – 与hook_fn函数对应的handle对象。
  173. **异常:**
  174. - **TypeError** – 如果 `hook_fn` 不是Python函数。
  175. .. py:method:: register_forward_hook(hook_fn)
  176. 设置Cell对象的正向hook函数。此函数仅在PyNative模式下支持。
  177. .. note::
  178. - hook_fn必须有如下代码定义。 `cell_id` 是已注册Cell对象的信息,包括名称和ID。 `inputs` 是网络正向传播时Cell对象的输入数据。 `outputs` 是网络正向传播时Cell对象的输出数据。用户可以在hook_fn中打印数据或者返回新的输出数据。
  179. - hook_fn返回新的输出数据或者None:hook_fn(cell_id, inputs, outputs) -> New outputs or None。
  180. - 为了避免脚本在切换到图模式时运行失败,不建议在Cell对象的 `construct` 函数中调用 `register_forward_hook(hook_fn)`。
  181. **参数:**
  182. - **hook_fn** (function) – 捕获Cell对象信息和正向输入,输出数据的hook_fn函数。
  183. **返回:**
  184. - **handle** – 与hook_fn函数对应的handle对象。
  185. **异常:**
  186. - **TypeError** – 如果 `hook_fn` 不是Python函数。
  187. .. py:method:: register_backward_hook(hook_fn)
  188. 设置Cell对象的反向hook函数。此函数仅在PyNative模式下支持。
  189. .. note::
  190. - hook_fn必须有如下代码定义。 `cell_id` 是已注册Cell对象的信息,包括名称和ID。 `grad_input` 是反向传递给Cell对象的梯度。 `grad_output` 是Cell对象的反向输出梯度。用户可以在hook_fn中打印梯度数据或者返回新的输出梯度。
  191. - hook_fn返回新的输出梯度或者None:hook_fn(cell_id, grad_input, grad_output) -> New grad_output or None。
  192. - 为了避免脚本在切换到图模式时运行失败,不建议在Cell对象的 `construct` 函数中调用 `register_backward_hook(hook_fn)`。
  193. **参数:**
  194. - **hook_fn** (function) – 捕获Cell对象信息和反向输入,输出梯度的hook_fn函数。
  195. **返回:**
  196. - **handle** – 与hook_fn函数对应的handle对象。
  197. **异常:**
  198. - **TypeError** – 如果 `hook_fn` 不是Python函数。
  199. .. py:method:: remove_redundant_parameters()
  200. 删除冗余参数。
  201. 这个接口通常不需要显式调用。
  202. .. py:method:: set_auto_parallel()
  203. 将Cell设置为自动并行模式。
  204. .. note:: 如果一个Cell需要使用自动并行或半自动并行模式来进行训练、评估或预测,则该Cell需要调用此接口。
  205. .. py:method:: set_comm_fusion(fusion_type, recurse=True)
  206. 为Cell中的参数设置融合类型。请参考 :class:`mindspore.Parameter.comm_fusion` 的描述。
  207. .. note:: 当函数被多次调用时,此属性值将被重写。
  208. **参数:**
  209. - **fusion_type** (int) – Parameter的 `comm_fusion` 属性的设置值。
  210. - **recurse** (bool) – 是否递归地设置子Cell的可训练参数。默认值:True。
  211. .. py:method:: set_data_parallel()
  212. 递归设置该Cell中的所有算子的并行策略为数据并行。
  213. .. note:: 仅在图模式、全自动并行(AUTO_PARALLEL)模式下生效。
  214. .. py:method:: shard(in_axes, out_axes, device="Ascend", level=0)
  215. 指定输入/输出Tensor的分布策略,其余算子的策略推导得到。在PyNative模式下,可以利用此方法指定某个Cell以图模式进行分布式执行。 in_axes/out_axes需要为元组类型,
  216. 其中的每一个元素指定对应的输入/输出的Tensor分布策略,可参考: `mindspore.ops.Primitive.shard` 的描述,也可以设置为None,会默认以数据并行执行。
  217. 其余算子的并行策略由输入输出指定的策略推导得到。
  218. .. note:: 需设置为PyNative模式,并且全自动并行(AUTO_PARALLEL),同时设置 `set_auto_parallel_context` 中的搜索模式(search mode)为"sharding_propagation",或半自动并行(SEMI_AUTO_PARALLEL)。
  219. **参数:**
  220. - **in_axes** (tuple) – 指定各输入的切分策略,输入元组的每个元素可以为元组或None,元组即具体指定输入每一维的切分策略,None则会默认以数据并行执行。
  221. - **out_axes** (tuple) – 指定各输出的切分策略,用法同in_axes。
  222. - **device** (string) - 指定执行设备,可以为["CPU", "GPU", "Ascend"]中任意一个,默认值:"Ascend"。目前尚未使能。
  223. - **level** (int) - 指定搜索切分策略的目标函数,即是最大化计算通信比、最小化内存消耗、最大化执行速度等。可以为[0, 1, 2]中任意一个,默认值:0。目前仅支持
  224. 最大化计算通信比,其余模式尚未使能。
  225. **返回:**
  226. Cell类型,Cell本身。
  227. .. py:method:: set_grad(requires_grad=True)
  228. Cell的梯度设置。在PyNative模式下,该参数指定Cell是否需要梯度。如果为True,则在执行正向网络时,将生成需要计算梯度的反向网络。
  229. **参数:**
  230. - **requires_grad** (bool) – 指定网络是否需要梯度,如果为True,PyNative模式下Cell将构建反向网络。默认值:True。
  231. **返回:**
  232. Cell类型,Cell本身。
  233. .. py:method:: set_parallel_input_with_inputs(*inputs)
  234. 通过并行策略对输入张量进行切分。
  235. **参数:**
  236. **inputs** (tuple) – construct方法的输入。
  237. .. py:method:: set_param_fl(push_to_server=False, pull_from_server=False, requires_aggr=True)
  238. 设置参数与服务器交互的方式。
  239. **参数:**
  240. - **push_to_server** (bool) – 是否将参数推送到服务器。默认值:False。
  241. - **pull_from_server** (bool) – 是否从服务器提取参数。默认值:False。
  242. - **requires_aggr** (bool) – 是否在服务器中聚合参数。默认值:True。
  243. .. py:method:: set_param_ps(recurse=True, init_in_server=False)
  244. 设置可训练参数是否由参数服务器更新,以及是否在服务器上初始化可训练参数。
  245. .. note:: 只在运行的任务处于参数服务器模式时有效。
  246. **参数:**
  247. - **recurse** (bool) – 是否设置子网络的可训练参数。默认值:True。
  248. - **init_in_server** (bool) – 是否在服务器上初始化由参数服务器更新的可训练参数。默认值:False。
  249. .. py:method:: set_train(mode=True)
  250. 将Cell设置为训练模式。
  251. 设置当前Cell和所有子Cell的训练模式。对于训练和预测具有不同结构的网络层(如 `BatchNorm`),将通过这个属性区分分支。如果设置为True,则执行训练分支,否则执行另一个分支。
  252. **参数:**
  253. - **mode** (bool) – 指定模型是否为训练模式。默认值:True。
  254. **返回:**
  255. Cell类型,Cell本身。
  256. .. py:method:: to_float(dst_type)
  257. 在Cell和所有子Cell的输入上添加类型转换,以使用特定的浮点类型运行。
  258. 如果 `dst_type` 是 `mindspore.dtype.float16` ,Cell的所有输入(包括作为常量的input, Parameter, Tensor)都会被转换为float16。请参考 `mindspore.build_train_network` 的源代码中的用法。
  259. .. note:: 多次调用将产生覆盖。
  260. **参数:**
  261. - **dst_type** (mindspore.dtype) – Cell转换为 `dst_type` 类型运行。 `dst_type` 可以是 `mindspore.dtype.float16` 或者 `mindspore.dtype.float32` 。
  262. **返回:**
  263. Cell类型,Cell本身。
  264. **异常:**
  265. - **ValueError** – 如果 `dst_type` 不是 `mindspore.dtype.float32` ,也不是 `mindspore.dtype.float16`。
  266. .. py:method:: trainable_params(recurse=True)
  267. 返回Cell的可训练参数。
  268. 返回一个可训练参数的列表。
  269. **参数:**
  270. - **recurse** (bool) – 是否递归地包含当前Cell的所有子Cell的可训练参数。默认值:True。
  271. **返回:**
  272. List类型,可训练参数列表。
  273. .. py:method:: untrainable_params(recurse=True)
  274. 返回Cell的不可训练参数。
  275. 返回一个不可训练参数的列表。
  276. **参数:**
  277. - **recurse** (bool) – 是否递归地包含当前Cell的所有子Cell的不可训练参数。默认值:True。
  278. **返回:**
  279. List类型,不可训练参数列表。
  280. .. py:method:: update_cell_prefix()
  281. 递归地更新所有子Cell的 `param_prefix` 。
  282. 在调用此方法后,可以通过Cell的 `param_prefix` 属性获取该Cell的所有子Cell的名称前缀。
  283. .. py:method:: update_cell_type(cell_type)
  284. 量化感知训练网络场景下,更新当前Cell的类型。
  285. 此方法将Cell类型设置为 `cell_type` 。
  286. **参数:**
  287. - **cell_type** (str) – 被更新的类型,`cell_type` 可以是"quant"或"second-order"。
  288. .. py:method:: update_parameters_name(prefix="", recurse=True)
  289. 给网络参数名称添加 `prefix` 前缀字符串。
  290. **参数:**
  291. - **prefix** (str) – 前缀字符串。默认值:''。
  292. - **recurse** (bool) – 是否递归地包含所有子Cell的参数。默认值:True。