Browse Source

!29941 modify doc

Merge pull request !29941 from xumengjuan1/code_docs_xmj13
feature/build-system-rewrite
i-robot Gitee 4 years ago
parent
commit
6f4a936123
No known key found for this signature in database GPG Key ID: 173E9B9CA92EEF8F
34 changed files with 130 additions and 137 deletions
  1. +1
    -1
      docs/api/api_python/dataset/mindspore.dataset.CLUEDataset.rst
  2. +1
    -1
      docs/api/api_python/dataset/mindspore.dataset.CSVDataset.rst
  3. +7
    -7
      docs/api/api_python/dataset/mindspore.dataset.Cifar100Dataset.rst
  4. +7
    -7
      docs/api/api_python/dataset/mindspore.dataset.Cifar10Dataset.rst
  5. +1
    -1
      docs/api/api_python/dataset/mindspore.dataset.Dataset.d.rst
  6. +5
    -5
      docs/api/api_python/dataset/mindspore.dataset.GraphData.rst
  7. +7
    -7
      docs/api/api_python/dataset/mindspore.dataset.MnistDataset.rst
  8. +5
    -5
      docs/api/api_python/dataset/mindspore.dataset.NumpySlicesDataset.rst
  9. +3
    -3
      docs/api/api_python/dataset/mindspore.dataset.Schema.rst
  10. +1
    -1
      docs/api/api_python/dataset/mindspore.dataset.deserialize.rst
  11. +1
    -1
      docs/api/api_python/dataset/mindspore.dataset.serialize.rst
  12. +19
    -18
      docs/api/api_python/mindspore.dataset.rst
  13. +1
    -1
      docs/api/api_python/mindspore.nn.probability.rst
  14. +8
    -8
      docs/api/api_python/mindspore.nn.rst
  15. +3
    -3
      docs/api/api_python/mindspore.ops.rst
  16. +10
    -10
      docs/api/api_python/mindspore.rst
  17. +2
    -2
      docs/api/api_python/mindspore/mindspore.DynamicLossScaleManager.rst
  18. +2
    -2
      docs/api/api_python/mindspore/mindspore.FixedLossScaleManager.rst
  19. +1
    -1
      docs/api/api_python/mindspore/mindspore.dtype.rst
  20. +4
    -4
      docs/api/api_python/nn/mindspore.nn.CosineDecayLR.rst
  21. +1
    -1
      docs/api/api_python/nn/mindspore.nn.DynamicLossScaleUpdateCell.rst
  22. +4
    -4
      docs/api/api_python/nn/mindspore.nn.ExponentialDecayLR.rst
  23. +1
    -1
      docs/api/api_python/nn/mindspore.nn.FixedLossScaleUpdateCell.rst
  24. +1
    -1
      docs/api/api_python/nn/mindspore.nn.HSwish.rst
  25. +5
    -5
      docs/api/api_python/nn/mindspore.nn.cosine_decay_lr.rst
  26. +4
    -4
      docs/api/api_python/nn/mindspore.nn.exponential_decay_lr.rst
  27. +4
    -4
      docs/api/api_python/nn/mindspore.nn.inverse_decay_lr.rst
  28. +4
    -4
      docs/api/api_python/nn/mindspore.nn.natural_exp_decay_lr.rst
  29. +3
    -3
      docs/api/api_python/nn/mindspore.nn.piecewise_constant_lr.rst
  30. +4
    -4
      docs/api/api_python/nn/mindspore.nn.polynomial_decay_lr.rst
  31. +3
    -3
      docs/api/api_python/nn/mindspore.nn.warmup_lr.rst
  32. +0
    -8
      docs/api/api_python/ops/mindspore.ops.L2Loss.rst
  33. +4
    -4
      mindspore/python/mindspore/nn/wrap/loss_scale.py
  34. +3
    -3
      mindspore/python/mindspore/train/loss_scale_manager.py

+ 1
- 1
docs/api/api_python/dataset/mindspore.dataset.CLUEDataset.rst View File

@@ -175,7 +175,7 @@ mindspore.dataset.CLUEDataset
- **ValueError** - `num_parallel_workers` 参数超过系统最大线程数。
- **RuntimeError** - 指定了 `num_shards` 参数,但是未指定 `shard_id` 参数。
- **RuntimeError** - 指定了 `shard_id` 参数,但是未指定 `num_shards` 参数。
- **ValueError:** - `shard_id` 参数错误(小于0或者大于等于 `num_shards` )。
- **ValueError** - `shard_id` 参数错误(小于0或者大于等于 `num_shards` )。
**关于CLUE数据集:**


+ 1
- 1
docs/api/api_python/dataset/mindspore.dataset.CSVDataset.rst View File

@@ -31,7 +31,7 @@
- **ValueError** - `num_parallel_workers` 参数超过系统最大线程数。
- **RuntimeError** - 指定了 `num_shards` 参数,但是未指定 `shard_id` 参数。
- **RuntimeError** - 指定了 `shard_id` 参数,但是未指定 `num_shards` 参数。
- **ValueError:** - `shard_id` 参数错误(小于0或者大于等于 `num_shards` )。
- **ValueError** - `shard_id` 参数错误(小于0或者大于等于 `num_shards` )。
.. include:: mindspore.dataset.Dataset.rst


+ 7
- 7
docs/api/api_python/dataset/mindspore.dataset.Cifar100Dataset.rst View File

@@ -22,14 +22,14 @@ mindspore.dataset.Cifar100Dataset
**异常:**
- **RuntimeError:** - `dataset_dir` 路径下不包含数据文件。
- **ValueError:** - `num_parallel_workers` 参数超过系统最大线程数。
- **RuntimeError** - `dataset_dir` 路径下不包含数据文件。
- **ValueError** - `num_parallel_workers` 参数超过系统最大线程数。
- **ValueError** - `usage` 参数取值不为'train'、'test'或'all'。
- **RuntimeError:** - 同时指定了 `sampler` 和 `shuffle` 参数。
- **RuntimeError:** - 同时指定了 `sampler` 和 `num_shards` 参数。
- **RuntimeError:** - 指定了 `num_shards` 参数,但是未指定 `shard_id` 参数。
- **RuntimeError:** - 指定了 `shard_id` 参数,但是未指定 `num_shards` 参数。
- **ValueError:** - `shard_id` 参数错误(小于0或者大于等于 `num_shards`)。
- **RuntimeError** - 同时指定了 `sampler` 和 `shuffle` 参数。
- **RuntimeError** - 同时指定了 `sampler` 和 `num_shards` 参数。
- **RuntimeError** - 指定了 `num_shards` 参数,但是未指定 `shard_id` 参数。
- **RuntimeError** - 指定了 `shard_id` 参数,但是未指定 `num_shards` 参数。
- **ValueError** - `shard_id` 参数错误(小于0或者大于等于 `num_shards`)。
.. note:: 此数据集可以指定参数 `sampler` ,但参数 `sampler` 和参数 `shuffle` 的行为是互斥的。下表展示了几种合法的输入参数组合及预期的行为。


+ 7
- 7
docs/api/api_python/dataset/mindspore.dataset.Cifar10Dataset.rst View File

@@ -22,14 +22,14 @@ mindspore.dataset.Cifar10Dataset
**异常:**
- **RuntimeError:** - `dataset_dir` 路径下不包含数据文件。
- **ValueError:** - `num_parallel_workers` 参数超过系统最大线程数。
- **RuntimeError** - `dataset_dir` 路径下不包含数据文件。
- **ValueError** - `num_parallel_workers` 参数超过系统最大线程数。
- **ValueError** - `usage` 参数取值不为'train'、'test'或'all'。
- **RuntimeError:** - 同时指定了 `sampler` 和 `shuffle` 参数。
- **RuntimeError:** - 同时指定了 `sampler` 和 `num_shards` 参数。
- **RuntimeError:** - 指定了 `num_shards` 参数,但是未指定 `shard_id` 参数。
- **RuntimeError:** - 指定了 `shard_id` 参数,但是未指定 `num_shards` 参数。
- **ValueError:** - `shard_id` 参数错误(小于0或者大于等于 `num_shards` )。
- **RuntimeError** - 同时指定了 `sampler` 和 `shuffle` 参数。
- **RuntimeError** - 同时指定了 `sampler` 和 `num_shards` 参数。
- **RuntimeError** - 指定了 `num_shards` 参数,但是未指定 `shard_id` 参数。
- **RuntimeError** - 指定了 `shard_id` 参数,但是未指定 `num_shards` 参数。
- **ValueError** - `shard_id` 参数错误(小于0或者大于等于 `num_shards` )。
.. note:: 此数据集可以指定参数 `sampler` ,但参数 `sampler` 和参数 `shuffle` 的行为是互斥的。下表展示了几种合法的输入参数组合及预期的行为。


+ 1
- 1
docs/api/api_python/dataset/mindspore.dataset.Dataset.d.rst View File

@@ -268,7 +268,7 @@

* - 'dataset'类型
- 'mindrecord'类型
- 详细
- 说明
* - bool
- None
- 不支持


+ 5
- 5
docs/api/api_python/dataset/mindspore.dataset.GraphData.rst View File

@@ -22,12 +22,12 @@ mindspore.dataset.GraphData
**异常:**
- **ValueError:** - `dataset_file` 路径下数据文件不存在或无效。
- **ValueError:** - `num_parallel_workers` 参数超过系统最大线程数。
- **ValueError** - `dataset_file` 路径下数据文件不存在或无效。
- **ValueError** - `num_parallel_workers` 参数超过系统最大线程数。
- **ValueError** - `working_mode` 参数取值不为'local', 'client' 或 'server'。
- **TypeError:** - `hostname` 参数类型错误。
- **ValueError:** - `port` 参数不在范围[1024, 65535]内。
- **ValueError:** - `num_client` 参数不在范围[1, 255]内。
- **TypeError** - `hostname` 参数类型错误。
- **ValueError** - `port` 参数不在范围[1024, 65535]内。
- **ValueError** - `num_client` 参数不在范围[1, 255]内。
.. py:method:: get_all_edges(edge_type)


+ 7
- 7
docs/api/api_python/dataset/mindspore.dataset.MnistDataset.rst View File

@@ -22,14 +22,14 @@ mindspore.dataset.MnistDataset
**异常:**
- **RuntimeError:** - `dataset_dir` 路径下不包含数据文件。
- **ValueError:** - `num_parallel_workers` 参数超过系统最大线程数。
- **RuntimeError** - `dataset_dir` 路径下不包含数据文件。
- **ValueError** - `num_parallel_workers` 参数超过系统最大线程数。
- **ValueError** - `usage` 参数取值不为'train'、'test'或'all'。
- **RuntimeError:** - 同时指定了 `sampler` 和 `shuffle` 参数。
- **RuntimeError:** - 同时指定了 `sampler` 和 `num_shards` 参数。
- **RuntimeError:** - 指定了 `num_shards` 参数,但是未指定 `shard_id` 参数。
- **RuntimeError:** - 指定了 `shard_id` 参数,但是未指定 `num_shards` 参数。
- **ValueError:** - `shard_id` 参数错误(小于0或者大于等于 `num_shards` )。
- **RuntimeError** - 同时指定了 `sampler` 和 `shuffle` 参数。
- **RuntimeError** - 同时指定了 `sampler` 和 `num_shards` 参数。
- **RuntimeError** - 指定了 `num_shards` 参数,但是未指定 `shard_id` 参数。
- **RuntimeError** - 指定了 `shard_id` 参数,但是未指定 `num_shards` 参数。
- **ValueError** - `shard_id` 参数错误(小于0或者大于等于 `num_shards` )。
.. note:: 此数据集可以指定参数 `sampler` ,但参数 `sampler` 和参数 `shuffle` 的行为是互斥的。下表展示了几种合法的输入参数组合及预期的行为。


+ 5
- 5
docs/api/api_python/dataset/mindspore.dataset.NumpySlicesDataset.rst View File

@@ -52,11 +52,11 @@ mindspore.dataset.NumpySlicesDataset
- **RuntimeError** - `column_names` 列表的长度与数据的输出列表长度不匹配。
- **ValueError** - `num_parallel_workers` 参数超过系统最大线程数。
- **ValueError:** - 同时指定了 `sampler` 和 `shuffle` 参数。
- **ValueError:** - 同时指定了 `sampler` 和 `num_shards` 参数。
- **ValueError:** - 指定了 `num_shards` 参数,但是未指定 `shard_id` 参数。
- **ValueError:** - 指定了 `shard_id` 参数,但是未指定 `num_shards` 参数。
- **ValueError:** - `shard_id` 参数值错误(小于0或者大于等于 `num_shards` )。
- **ValueError** - 同时指定了 `sampler` 和 `shuffle` 参数。
- **ValueError** - 同时指定了 `sampler` 和 `num_shards` 参数。
- **ValueError** - 指定了 `num_shards` 参数,但是未指定 `shard_id` 参数。
- **ValueError** - 指定了 `shard_id` 参数,但是未指定 `num_shards` 参数。
- **ValueError** - `shard_id` 参数值错误(小于0或者大于等于 `num_shards` )。
.. include:: mindspore.dataset.Dataset.add_sampler.rst


+ 3
- 3
docs/api/api_python/dataset/mindspore.dataset.Schema.rst View File

@@ -58,9 +58,9 @@ mindspore.dataset.Schema
**异常:**
- **RuntimeError:** 解析列失败。
- **RuntimeError:** 列name字段缺失。
- **RuntimeError:** 列type字段缺失。
- **RuntimeError** - 解析列失败。
- **RuntimeError** - 列name字段缺失。
- **RuntimeError** - 列type字段缺失。
.. py:method:: to_json()


+ 1
- 1
docs/api/api_python/dataset/mindspore.dataset.deserialize.rst View File

@@ -19,4 +19,4 @@ mindspore.dataset.deserialize

**异常:**

- **OSError:** - `json_filepath` 不为None且JSON文件解析失败时。
- **OSError** - `json_filepath` 不为None且JSON文件解析失败时。

+ 1
- 1
docs/api/api_python/dataset/mindspore.dataset.serialize.rst View File

@@ -19,4 +19,4 @@

**异常:**

**OSError:** 无法打开文件。
**OSError** - 无法打开文件。

+ 19
- 18
docs/api/api_python/mindspore.dataset.rst View File

@@ -31,12 +31,13 @@ mindspore.dataset
:toctree: dataset

mindspore.dataset.CelebADataset
mindspore.dataset.Cifar10Dataset
mindspore.dataset.Cifar100Dataset
mindspore.dataset.CocoDataset
mindspore.dataset.ImageFolderDataset
mindspore.dataset.ManifestDataset
mindspore.dataset.MnistDataset
mindspore.dataset.VOCDataset
mindspore.dataset.Cifar100Dataset
mindspore.dataset.Cifar10Dataset

文本
----
@@ -45,15 +46,17 @@ mindspore.dataset
:toctree: dataset

mindspore.dataset.CLUEDataset
mindspore.dataset.TextFileDataset

---
标准格式
--------

.. cnmsautosummary::
:toctree: dataset
mindspore.dataset.GraphData

mindspore.dataset.CSVDataset
mindspore.dataset.MindDataset
mindspore.dataset.TFRecordDataset

用户自定义
----------
@@ -65,6 +68,15 @@ mindspore.dataset
mindspore.dataset.NumpySlicesDataset
mindspore.dataset.PaddedDataset

---

.. cnmsautosummary::
:toctree: dataset
mindspore.dataset.GraphData


采样器
-------

@@ -79,17 +91,6 @@ mindspore.dataset
mindspore.dataset.SubsetSampler
mindspore.dataset.WeightedRandomSampler

标准格式
--------

.. cnmsautosummary::
:toctree: dataset

mindspore.dataset.CSVDataset
mindspore.dataset.ManifestDataset
mindspore.dataset.MindDataset
mindspore.dataset.TFRecordDataset
mindspore.dataset.TextFileDataset

其他
-----
@@ -97,8 +98,8 @@ mindspore.dataset
.. cnmsautosummary::
:toctree: dataset

mindspore.dataset.DSCallback
mindspore.dataset.DatasetCache
mindspore.dataset.DSCallback
mindspore.dataset.Schema
mindspore.dataset.WaitedDSCallback
mindspore.dataset.compare


+ 1
- 1
docs/api/api_python/mindspore.nn.probability.rst View File

@@ -34,8 +34,8 @@ Distributions
mindspore.nn.probability.distribution.Gamma
mindspore.nn.probability.distribution.Geometric
mindspore.nn.probability.distribution.Gumbel
mindspore.nn.probability.distribution.LogNormal
mindspore.nn.probability.distribution.Logistic
mindspore.nn.probability.distribution.LogNormal
mindspore.nn.probability.distribution.Normal
mindspore.nn.probability.distribution.Poisson
mindspore.nn.probability.distribution.TransformedDistribution


+ 8
- 8
docs/api/api_python/mindspore.nn.rst View File

@@ -52,7 +52,9 @@ MindSpore中 `mindspore.nn` 接口与上一版本相比,新增、删除和支
.. cnmsplatformautosummary::
:toctree: nn

mindspore.nn.ELU
mindspore.nn.FastGelu
mindspore.nn.GELU
mindspore.nn.HShrink
mindspore.nn.HSigmoid
mindspore.nn.HSwish
@@ -60,8 +62,6 @@ MindSpore中 `mindspore.nn` 接口与上一版本相比,新增、删除和支
mindspore.nn.LogSigmoid
mindspore.nn.LogSoftmax
mindspore.nn.ReLU
mindspore.nn.ELU
mindspore.nn.GELU
mindspore.nn.Sigmoid
mindspore.nn.Softmax
mindspore.nn.Tanh
@@ -91,16 +91,16 @@ MindSpore中 `mindspore.nn` 接口与上一版本相比,新增、删除和支
.. cnmsplatformautosummary::
:toctree: nn

mindspore.nn.Optimizer
mindspore.nn.Adagrad
mindspore.nn.Adam
mindspore.nn.AdamOffload
mindspore.nn.AdamWeightDecay
mindspore.nn.FTRL
mindspore.nn.LARS
mindspore.nn.Lamb
mindspore.nn.LARS
mindspore.nn.LazyAdam
mindspore.nn.Momentum
mindspore.nn.Optimizer
mindspore.nn.ProximalAdagrad
mindspore.nn.RMSProp
mindspore.nn.SGD
@@ -139,18 +139,18 @@ MindSpore中 `mindspore.nn` 接口与上一版本相比,新增、删除和支
mindspore.nn.Accuracy
mindspore.nn.F1
mindspore.nn.Fbeta
mindspore.nn.get_metric_fn
mindspore.nn.Loss
mindspore.nn.MAE
mindspore.nn.MSE
mindspore.nn.Metric
mindspore.nn.MSE
mindspore.nn.names
mindspore.nn.Precision
mindspore.nn.Recall
mindspore.nn.rearrange_inputs
mindspore.nn.Top1CategoricalAccuracy
mindspore.nn.Top5CategoricalAccuracy
mindspore.nn.TopKCategoricalAccuracy
mindspore.nn.get_metric_fn
mindspore.nn.names
mindspore.nn.rearrange_inputs

动态学习率
-----------


+ 3
- 3
docs/api/api_python/mindspore.ops.rst View File

@@ -31,7 +31,7 @@ operations中的Primitive算子在使用前需要实例化。
mindspore.ops.Sigmoid

Math类型算子
------------
^^^^^^^^^^^^

.. cnmsplatformautosummary::
:toctree: ops
@@ -51,7 +51,7 @@ Math类型算子
mindspore.ops.Sub

Array类型算子
--------------
^^^^^^^^^^^^^^

.. cnmsplatformautosummary::
:toctree: ops
@@ -68,7 +68,7 @@ Array类型算子


Random类型算子
--------------
^^^^^^^^^^^^^^^

.. cnmsplatformautosummary::
:toctree: ops


+ 10
- 10
docs/api/api_python/mindspore.rst View File

@@ -28,10 +28,10 @@ mindspore

mindspore.dtype
mindspore.dtype_to_nptype
mindspore.dtype_to_pytype
mindspore.get_py_obj_dtype
mindspore.issubclass_
mindspore.dtype_to_pytype
mindspore.pytype_to_dtype
mindspore.get_py_obj_dtype

种子
----
@@ -39,8 +39,8 @@ mindspore
.. cnmsautosummary::
:toctree: mindspore

mindspore.get_seed
mindspore.set_seed
mindspore.get_seed

模型
-----
@@ -65,9 +65,9 @@ MindData数据集处理
.. cnmsautosummary::
:toctree: mindspore

mindspore.DynamicLossScaleManager
mindspore.FixedLossScaleManager
mindspore.LossScaleManager
mindspore.FixedLossScaleManager
mindspore.DynamicLossScaleManager

序列化
-------
@@ -75,15 +75,15 @@ MindData数据集处理
.. cnmsautosummary::
:toctree: mindspore

mindspore.build_searched_strategy
mindspore.save_checkpoint
mindspore.load_checkpoint
mindspore.load_param_into_net
mindspore.export
mindspore.load
mindspore.parse_print
mindspore.load_checkpoint
mindspore.load_distributed_checkpoint
mindspore.load_param_into_net
mindspore.build_searched_strategy
mindspore.merge_sliced_parameter
mindspore.save_checkpoint
mindspore.load_distributed_checkpoint
mindspore.async_ckpt_thread_status

即时编译


+ 2
- 2
docs/api/api_python/mindspore/mindspore.DynamicLossScaleManager.rst View File

@@ -29,11 +29,11 @@ mindspore.DynamicLossScaleManager

.. py:method:: get_update_cell()

返回用于更新梯度放大系数的 `Cell` 实例,:class:`mindspore.TrainOneStepWithLossScaleCell` 会调用该实例。
返回用于更新梯度放大系数的 `Cell` 实例,:class:`mindspore.nn.TrainOneStepWithLossScaleCell` 会调用该实例。

**返回:**

:class:`mindspore.DynamicLossScaleUpdateCell` 实例,用于更新梯度放大系数。
:class:`mindspore.nn.DynamicLossScaleUpdateCell` 实例,用于更新梯度放大系数。

.. py:method:: update_loss_scale(overflow)



+ 2
- 2
docs/api/api_python/mindspore/mindspore.FixedLossScaleManager.rst View File

@@ -28,11 +28,11 @@ mindspore.FixedLossScaleManager

.. py:method:: get_update_cell()

返回用于更新 `loss_scale` 值的 `Cell` 实例, :class:`mindspore.TrainOneStepWithLossScaleCell` 会调用该实例。该类使用固定的梯度放大系数,因此该实例不执行任何操作。
返回用于更新 `loss_scale` 值的 `Cell` 实例, :class:`mindspore.nn.TrainOneStepWithLossScaleCell` 会调用该实例。该类使用固定的梯度放大系数,因此该实例不执行任何操作。

**返回:**

None或 `Cell` 。当 `drop_overflow_update` 为True时,返回 :class:`mindspore.FixedLossScaleUpdateCell` 实例,当 `drop_overflow_update` 为False时,返回None。
None或 `Cell` 。当 `drop_overflow_update` 为True时,返回 :class:`mindspore.nn.FixedLossScaleUpdateCell` 实例,当 `drop_overflow_update` 为False时,返回None。

.. py:method:: update_loss_scale(overflow)



+ 1
- 1
docs/api/api_python/mindspore/mindspore.dtype.rst View File

@@ -40,7 +40,7 @@ mindspore.dtype
============================ =================
类型 描述
============================ =================
``Tensor`` MindSpore中的张量类型。数据格式采用NCHW。详情请参考 `tensor <https://www.gitee.com/mindspore/mindspore/blob/master/mindspore/python/mindspore/common/tensor.py>_`.
``Tensor`` MindSpore中的张量类型。数据格式采用NCHW。详情请参考 `tensor <https://www.gitee.com/mindspore/mindspore/blob/master/mindspore/python/mindspore/common/tensor.py>_`
``bool_`` 布尔型,值为 ``True`` 或者 ``False`` 。
``int_`` 整数标量。
``uint`` 无符号整数标量。


+ 4
- 4
docs/api/api_python/nn/mindspore.nn.CosineDecayLR.rst View File

@@ -28,7 +28,7 @@ mindspore.nn.CosineDecayLR

**异常:**

- **TypeError:** `min_lr` 或 `max_lr` 不是float。
- **TypeError:** `decay_steps` 不是整数。
- **ValueError:** `min_lr` 小于0或 `decay_steps` 小于1。
- **ValueError:** `max_lr` 小于或等于0。
- **TypeError** - `min_lr` 或 `max_lr` 不是float。
- **TypeError** - `decay_steps` 不是整数。
- **ValueError** - `min_lr` 小于0或 `decay_steps` 小于1。
- **ValueError** - `max_lr` 小于或等于0。

+ 1
- 1
docs/api/api_python/nn/mindspore.nn.DynamicLossScaleUpdateCell.rst View File

@@ -7,7 +7,7 @@ mindspore.nn.DynamicLossScaleUpdateCell

使用混合精度功能进行训练时,初始损失缩放系数值为 `loss_scale_value`。在每个训练步骤中,当出现溢出时,通过计算公式 `loss_scale`/`scale_factor` 减小损失缩放系数。如果连续 `scale_window` 步(step)未溢出,则将通过 `loss_scale` * `scale_factor` 增大损失缩放系数。

该类是 :class:`mindspore.nn.DynamicLossScaleManager` 的 `get_update_cell` 方法的返回值。训练过程中,类 :class:`mindspore.TrainOneStepWithLossScaleCell` 会调用该Cell来更新损失缩放系数。
该类是 :class:`mindspore.DynamicLossScaleManager` 的 `get_update_cell` 方法的返回值。训练过程中,类 :class:`mindspore.nn.TrainOneStepWithLossScaleCell` 会调用该Cell来更新损失缩放系数。

**参数:**



+ 4
- 4
docs/api/api_python/nn/mindspore.nn.ExponentialDecayLR.rst View File

@@ -37,7 +37,7 @@ mindspore.nn.ExponentialDecayLR

**异常:**

- **TypeError:** `learning_rate` 或 `decay_rate` 不是float。
- **TypeError:** `decay_steps` 不是int或 `is_stair` 不是bool。
- **ValueError:** `decay_steps` 小于1。
- **ValueError:** `learning_rate` 或 `decay_rate` 小于或等于0。
- **TypeError** - `learning_rate` 或 `decay_rate` 不是float。
- **TypeError** - `decay_steps` 不是int或 `is_stair` 不是bool。
- **ValueError** - `decay_steps` 小于1。
- **ValueError** - `learning_rate` 或 `decay_rate` 小于或等于0。

+ 1
- 1
docs/api/api_python/nn/mindspore.nn.FixedLossScaleUpdateCell.rst View File

@@ -5,7 +5,7 @@ mindspore.nn.FixedLossScaleUpdateCell

固定损失缩放系数的神经元。

该类是 :class:`mindspore.nn.FixedLossScaleManager` 的 `get_update_cell` 方法的返回值。训练过程中,类 :class:`mindspore.TrainOneStepWithLossScaleCell` 会调用该Cell。
该类是 :class:`mindspore.FixedLossScaleManager` 的 `get_update_cell` 方法的返回值。训练过程中,类 :class:`mindspore.nn.TrainOneStepWithLossScaleCell` 会调用该Cell。

**参数:**



+ 1
- 1
docs/api/api_python/nn/mindspore.nn.HSwish.rst View File

@@ -24,4 +24,4 @@ mindspore.nn.HSwish

**异常:**

- **TypeError:** `x` 的数据类型既不是float16也不是float32。
- **TypeError** - `x` 的数据类型既不是float16也不是float32。

+ 5
- 5
docs/api/api_python/nn/mindspore.nn.cosine_decay_lr.rst View File

@@ -27,8 +27,8 @@ mindspore.nn.cosine_decay_lr

**异常:**

- **TypeError:** `min_lr` 或 `max_lr` 不是float。
- **TypeError:** `total_step` 或 `step_per_epoch` 或 `decay_epoch` 不是int。
- **ValueError:** `max_lr` 不大于0或 `min_lr` 小于0。
- **ValueError:** `total_step` 或 `step_per_epoch` 或 `decay_epoch` 小于0。
- **ValueError:** `max_lr` 大于或等于 `min_lr`。
- **TypeError** - `min_lr` 或 `max_lr` 不是float。
- **TypeError** - `total_step` 或 `step_per_epoch` 或 `decay_epoch` 不是int。
- **ValueError** - `max_lr` 不大于0或 `min_lr` 小于0。
- **ValueError** - `total_step` 或 `step_per_epoch` 或 `decay_epoch` 小于0。
- **ValueError** - `max_lr` 大于或等于 `min_lr`。

+ 4
- 4
docs/api/api_python/nn/mindspore.nn.exponential_decay_lr.rst View File

@@ -27,7 +27,7 @@ mindspore.nn.exponential_decay_lr

**异常:**

- **TypeError:** `total_step` 或 `step_per_epoch` 或 `decay_epoch` 不是int。
- **TypeError:** `is_stair` 不是bool。
- **TypeError:** `learning_rate` 或 `decay_rate` 不是float。
- **ValueError:** `learning_rate` 或 `decay_rate` 小于等于0。
- **TypeError** - `total_step` 或 `step_per_epoch` 或 `decay_epoch` 不是int。
- **TypeError** - `is_stair` 不是bool。
- **TypeError** - `learning_rate` 或 `decay_rate` 不是float。
- **ValueError** - `learning_rate` 或 `decay_rate` 小于等于0。

+ 4
- 4
docs/api/api_python/nn/mindspore.nn.inverse_decay_lr.rst View File

@@ -27,7 +27,7 @@ mindspore.nn.inverse_decay_lr

**异常:**

- **TypeError:** `total_step` 或 `step_per_epoch` 或 `decay_epoch` 不是int。
- **TypeError:** `is_stair` 不是bool。
- **ValueError:** `learning_rate` 或 `decay_rate` 不是float。
- **ValueError:** `learning_rate` 或 `decay_rate` 小于等于0。
- **TypeError** - `total_step` 或 `step_per_epoch` 或 `decay_epoch` 不是int。
- **TypeError** - `is_stair` 不是bool。
- **ValueError** - `learning_rate` 或 `decay_rate` 不是float。
- **ValueError** - `learning_rate` 或 `decay_rate` 小于等于0。

+ 4
- 4
docs/api/api_python/nn/mindspore.nn.natural_exp_decay_lr.rst View File

@@ -27,7 +27,7 @@ mindspore.nn.natural_exp_decay_lr

**异常:**

- **TypeError:** `total_step` 或 `step_per_epoch` 或 `decay_epoch` 不是int。
- **TypeError:** `is_stair` 不是bool。
- **ValueError:** `learning_rate` 或 `decay_rate` 不是float。
- **ValueError:** `learning_rate` 或 `decay_rate` 小于等于0。
- **TypeError** - `total_step` 或 `step_per_epoch` 或 `decay_epoch` 不是int。
- **TypeError** - `is_stair` 不是bool。
- **ValueError** - `learning_rate` 或 `decay_rate` 不是float。
- **ValueError** - `learning_rate` 或 `decay_rate` 小于等于0。

+ 3
- 3
docs/api/api_python/nn/mindspore.nn.piecewise_constant_lr.rst View File

@@ -22,6 +22,6 @@ mindspore.nn.piecewise_constant_lr

**异常:**

- **TypeError:** `milestone` 或 `learning_rates` 既不是tuple也不是list。
- **ValueError:** `milestone` 和 `learning_rates` 的长度不相等。
- **ValueError:** `milestone` 中的不是单调递增的。
- **TypeError** - `milestone` 或 `learning_rates` 既不是tuple也不是list。
- **ValueError** - `milestone` 和 `learning_rates` 的长度不相等。
- **ValueError** - `milestone` 中的不是单调递增的。

+ 4
- 4
docs/api/api_python/nn/mindspore.nn.polynomial_decay_lr.rst View File

@@ -43,7 +43,7 @@ mindspore.nn.polynomial_decay_lr

**异常:**

- **TypeError:** `learning_rate` 或 `end_learning_rate` 或 `power` 不是float。
- **TypeError:** `total_step` 或 `step_per_epoch` 或 `decay_epoch` 不是int。
- **TypeError:** `update_decay_epoch` 不是bool。
- **ValueError:** `learning_rate` 或 `power` 小于等于0。
- **TypeError** - `learning_rate` 或 `end_learning_rate` 或 `power` 不是float。
- **TypeError** - `total_step` 或 `step_per_epoch` 或 `decay_epoch` 不是int。
- **TypeError** - `update_decay_epoch` 不是bool。
- **ValueError** - `learning_rate` 或 `power` 小于等于0。

+ 3
- 3
docs/api/api_python/nn/mindspore.nn.warmup_lr.rst View File

@@ -25,6 +25,6 @@ mindspore.nn.warmup_lr

**异常:**

- **TypeError:** `learning_rate` 不是float。
- **TypeError:** `total_step` 或 `step_per_epoch` 或 `decay_epoch` 不是int。
- **ValueError:** `learning_rate` 小于0。
- **TypeError** - `learning_rate` 不是float。
- **TypeError** - `total_step` 或 `step_per_epoch` 或 `decay_epoch` 不是int。
- **ValueError** - `learning_rate` 小于0。

+ 0
- 8
docs/api/api_python/ops/mindspore.ops.L2Loss.rst View File

@@ -22,11 +22,3 @@ mindspore.ops.L2Loss

- **TypeError** - `input_x` 不是Tensor。
- **TypeError** - `input_x` 的数据类型既不是float16也不是float32。

**样例:**

>>> input_x = Tensor(np.array([1, 2, 3]), mindspore.float16)
>>> l2_loss = ops.L2Loss()
>>> output = l2_loss(input_x)
>>> print(output)
7.0

+ 4
- 4
mindspore/python/mindspore/nn/wrap/loss_scale.py View File

@@ -63,8 +63,8 @@ class DynamicLossScaleUpdateCell(Cell):
when there is an overflow. And it will be increased by `loss_scale` * `scale_factor` if there is no
overflow for a continuous `scale_window` steps.

`get_update_cell` method of :class:`mindspore.nn.DynamicLossScaleManager` will return this class, it will be called
by :class:`mindspore.TrainOneStepWithLossScaleCell` during training to update loss scale.
`get_update_cell` method of :class:`mindspore.DynamicLossScaleManager` will return this class, it will be called
by :class:`mindspore.nn.TrainOneStepWithLossScaleCell` during training to update loss scale.

Args:
loss_scale_value (float): Initializes loss scale.
@@ -162,8 +162,8 @@ class FixedLossScaleUpdateCell(Cell):
"""
Update cell with fixed loss scaling value.

`get_update_cell` method of :class:`mindspore.nn.FixedLossScaleManager` will return this class, it will be called
by :class:`mindspore.TrainOneStepWithLossScaleCell` during trainning.
`get_update_cell` method of :class:`mindspore.FixedLossScaleManager` will return this class, it will be called
by :class:`mindspore.nn.TrainOneStepWithLossScaleCell` during trainning.

Args:
loss_scale_value (float): Initializes loss scale.


+ 3
- 3
mindspore/python/mindspore/train/loss_scale_manager.py View File

@@ -110,8 +110,8 @@ class FixedLossScaleManager(LossScaleManager):
will do nothing.

Returns:
None or :class:`mindspore.FixedLossScaleUpdateCell`. Instance of
:class:`mindspore.FixedLossScaleUpdateCell` when `drop_overflow_update` is True. None when
None or :class:`mindspore.nn.FixedLossScaleUpdateCell`. Instance of
:class:`mindspore.nn.FixedLossScaleUpdateCell` when `drop_overflow_update` is True. None when
`drop_overflow_update` is False.
"""
if not self._drop_overflow_update:
@@ -203,6 +203,6 @@ class DynamicLossScaleManager(LossScaleManager):
:class:`mindspore.nn.TrainOneStepWithLossScaleCell`.

Returns:
:class:`mindspore.DynamicLossScaleUpdateCell`.
:class:`mindspore.nn.DynamicLossScaleUpdateCell`.
"""
return nn.DynamicLossScaleUpdateCell(self.loss_scale, self.scale_factor, self.scale_window)

Loading…
Cancel
Save