Browse Source

add get_weight_decay cn

pull/1/head
wanyiming 4 years ago
parent
commit
4c3bb7639c
1 changed files with 8 additions and 0 deletions
  1. +8
    -0
      docs/api/api_python/nn/mindspore.nn.Optimizer.rst

+ 8
- 0
docs/api/api_python/nn/mindspore.nn.Optimizer.rst View File

@@ -83,6 +83,14 @@ mindspore.nn.Optimizer
**返回:**

Parameter,单个 `Parameter` 或 `Parameter` 列表。如果使用了动态学习率,返回用于计算学习率的 `LearningRateSchedule` 或 `LearningRateSchedule` 列表。
.. py:method:: get_weight_decay()

优化器调用该接口获取当前步骤(step)的weight decay值。继承 :class:`mindspore.nn.Optimizer` 自定义优化器时,可在参数更新前调用该接口获取weight decay值。

**返回:**

float,当前步骤的weight decay值。

.. py:method:: gradients_centralization(gradients)



Loading…
Cancel
Save