Browse Source

fix doc bug

feature/build-system-rewrite
chenweitao_295 4 years ago
parent
commit
e3bbc44e2f
8 changed files with 21 additions and 82 deletions
  1. +4
    -5
      docs/api/api_python/mindspore.nn.rst
  2. +4
    -4
      docs/api/api_python/nn/mindspore.nn.HShrink.rst
  3. +2
    -4
      docs/api/api_python/nn/mindspore.nn.HSigmoid.rst
  4. +1
    -1
      docs/api/api_python/nn/mindspore.nn.LogSoftmax.rst
  5. +0
    -60
      docs/api/api_python/nn/mindspore.nn.MAELoss.rst
  6. +6
    -4
      docs/api/api_python/nn/mindspore.nn.MSELoss.rst
  7. +3
    -3
      docs/api/api_python/nn/mindspore.nn.Sigmoid.rst
  8. +1
    -1
      docs/api/api_python/nn/mindspore.nn.Tanh.rst

+ 4
- 5
docs/api/api_python/mindspore.nn.rst View File

@@ -9,7 +9,7 @@ Cell

mindspore.nn.Cell

Containers
容器
-----------

.. cnmsplatformautosummary::
@@ -18,7 +18,7 @@ Containers
mindspore.nn.CellList
mindspore.nn.SequentialCell

Convolution Layers
卷积层
--------------------

.. cnmsplatformautosummary::
@@ -40,7 +40,7 @@ Gradient
mindspore.nn.Jvp
mindspore.nn.Vjp

Non-linear Activations
非线性激活函数
----------------------

.. cnmsplatformautosummary::
@@ -69,14 +69,13 @@ Utilities
mindspore.nn.Flatten
mindspore.nn.Tril

Loss Functions
损失函数
--------------

.. cnmsplatformautosummary::
:toctree: nn

mindspore.nn.L1Loss
mindspore.nn.MAELoss
mindspore.nn.MSELoss
mindspore.nn.SmoothL1Loss



+ 4
- 4
docs/api/api_python/nn/mindspore.nn.HShrink.rst View File

@@ -3,7 +3,7 @@ mindspore.nn.HShrink

.. py:class:: mindspore.nn.HShrink(lambd=0.5)

按元素计算Hard Shrink函数,公式定义如下:
Hard Shrink激活函数,按输入元素计算输出,公式定义如下:

.. math::
\text{HardShrink}(x) =
@@ -15,7 +15,7 @@ mindspore.nn.HShrink

**参数:**

**lambd** (float) - Hard Shrink公式定义的阈值。默认值:0.5。
**lambd** (float) - Hard Shrink公式定义的阈值 :math:`\lambda` 。默认值:0.5。

**输入:**
@@ -31,8 +31,8 @@ mindspore.nn.HShrink

**异常:**

- **TypeError** - `lambd` 不是float。
- **TypeError** - `input_x` 的dtype既不是float16也不是float32
- **TypeError** - `lambd` 数据类型不是float。
- **TypeError** - `input_x` 数据类型不是float

**样例:**



+ 2
- 4
docs/api/api_python/nn/mindspore.nn.HSigmoid.rst View File

@@ -3,9 +3,7 @@ mindspore.nn.HSigmoid

.. py:class:: mindspore.nn.HSigmoid

Hard Sigmoid激活函数。

按元素计算Hard Sigmoid激活函数。
Hard Sigmoid激活函数,按元素计算输出。

Hard Sigmoid定义为:

@@ -16,7 +14,7 @@ mindspore.nn.HSigmoid

**输入:**

- **input_x** (Tensor) - Hard Sigmoid的输入。shape为 :math:`(N,*)` 其中 :math:`*` 表示任意的附加维度。
- **input_x** (Tensor) - Hard Sigmoid的输入,任意维度的Tensor
**输出:**



+ 1
- 1
docs/api/api_python/nn/mindspore.nn.LogSoftmax.rst View File

@@ -27,7 +27,7 @@ mindspore.nn.LogSoftmax

**输出:**

Tensor,数据类型和shape与`x`相同,值的范围在[-inf,0)。
Tensor,数据类型和shape与`x`相同,输出值的范围在[-inf,0)。

**异常:**



+ 0
- 60
docs/api/api_python/nn/mindspore.nn.MAELoss.rst View File

@@ -1,60 +0,0 @@
mindspore.nn.MAELoss
=============================

.. py:class:: mindspore.nn.MAELoss(reduction='mean')

MAELoss用于测量 :math:`x` 和 :math:`y` 元素之间的平均绝对误差,其中 :math:`x` 是输入Tensor, :math:`y` 是标签Tensor。
假设 :math:`x` 和 :math:`y` 为一维Tensor,长度 :math:`N` ,则计算 :math:`x` 和 :math:`y` 的unreduced loss(即reduction参数设置为"none")的公式如下:
.. math::
\ell(x, y) = L = \{l_1,\dots,l_N\}^\top, \quad \text{with } l_n = \left| x_n - y_n \right|,

其中, :math:`N` 为batch size。如果 `reduction` 不是"none",则:

.. math::
\ell(x, y) =
\begin{cases}
\operatorname{mean}(L), & \text{if reduction} = \text{'mean';}\\
\operatorname{sum}(L), & \text{if reduction} = \text{'sum'.}
\end{cases}

**参数:**
**reduction** (str) - 应用于loss的reduction类型。取值为"mean","sum",或"none"。默认值:"mean"。

**输入:**
- **logits** (Tensor) - shape为 :math:`(M, *)` 的tensor,其中 :math:`*` 表示任意的附加维度。
- **labels** (Tensor) - shape为 :math:`(N, *)` 的tensor,在通常情况下与 `logits` 的shape相同。但是如果 `logits` 和 `labels` 的shape不同,需要保证他们之间可以互相广播。
**输出:**

Tensor,为加权loss float tensor,如果 `reduction` 为"mean"或"sum",则shape为零;如果 `reduction` 为"none",则输出的shape为输入Tensor广播后的shape。
**异常:**

**ValueError** - `reduction` 不为"mean","sum",或"none"。

**支持平台:**

``Ascend`` ``GPU`` ``CPU``

**样例:**

>>> #用例1:logits.shape = labels.shape = (3,)
>>> loss = nn.MAELoss()
>>> logits = Tensor(np.array([1, 2, 3]), mindspore.float32)
>>> labels = Tensor(np.array([1, 2, 2]), mindspore.float32)
>>> output = loss(logits, labels)
>>> print(output)
0.33333334
>>> #用例2:logits.shape = (3,), labels.shape = (2, 3)
>>> loss = nn.MAELoss(reduction='none')
>>> logits = Tensor(np.array([1, 2, 3]), mindspore.float32)
>>> labels = Tensor(np.array([[1, 1, 1], [1, 2, 2]]), mindspore.float32)
>>> output = loss(logits, labels)
>>> print(output)
[[0. 1. 2.]
[0. 0. 1.]]

+ 6
- 4
docs/api/api_python/nn/mindspore.nn.MSELoss.rst View File

@@ -3,7 +3,7 @@ mindspore.nn.MSELoss

.. py:class:: mindspore.nn.MSELoss(reduction='mean')

MSELoss是用来测量 :math:`x` 和 :math:`y` 对应元素之间的均方差,其中 :math:`x` 是输入Tensor, :math:`y` 是标签Tensor
用于计算预测值与标签值之间的均方误差
假设 :math:`x` 和 :math:`y` 为一维Tensor,长度 :math:`N` ,则计算 :math:`x` 和 :math:`y` 的unreduced loss(即reduction参数设置为"none")的公式如下:
@@ -25,16 +25,18 @@ mindspore.nn.MSELoss

**输入:**

- **logits** (Tensor) - shape为 :math:`(N, *)` 的Tensor,其中 :math:`*` 表示任意的附加维度。
- **labels** (Tensor) - shape为 :math:`(N, *)` 的Tensor,在通常情况下与 `logits` 的shape相同。但是如果 `logits` 和 `labels` 的shape不同,需要保证他们之间可以互相广播。
- **logits** (Tensor) - 输入预测值,任意维度的Tensor。
- **labels** (Tensor) - 输入标签,任意维度的Tensor,在通常情况下与 `logits` 的shape相同。但是如果 `logits` 和 `labels` 的shape不同,需要保证他们之间可以互相广播。
**输出:**

Tensor,为loss float tensor,如果 `reduction` 为"mean"或"sum",则shape为零;如果 `reduction` 为"none",则输出的shape为输入Tensor广播后的shape。
Tensor,为float类型的loss,如果 `reduction` 为"mean"或"sum",则shape为0;
如果 `reduction` 为"none",则输出的shape为输入Tensor广播后的shape。
**异常:**

**ValueError** - `reduction` 不为"mean","sum",或"none"。
**ValueError** - `logits` 和 `labels` 的shape不同,且不能广播。

**支持平台:**



+ 3
- 3
docs/api/api_python/nn/mindspore.nn.Sigmoid.rst View File

@@ -3,9 +3,9 @@ mindspore.nn.Sigmoid

.. py:class:: mindspore.nn.Sigmoid

Sgmoid激活函数。
Sigmoid激活函数。

按元素计算Sgmoid激活函数。
按元素计算Sigmoid激活函数。

Sigmoid函数定义为:

@@ -19,7 +19,7 @@ mindspore.nn.Sigmoid

**输入:**

- **x** (Tensor) - 数据类型为float16或float32的Sgmoid输入。shape为 :math:`(N,*)` ,其中 :math:`*` 表示任意的附加维度。
- **x** (Tensor) - 数据类型为float16或float32的Sgmoid输入。任意维度的Tensor

**输出:**



+ 1
- 1
docs/api/api_python/nn/mindspore.nn.Tanh.rst View File

@@ -16,7 +16,7 @@ mindspore.nn.Tanh

**输入:**
- **x** (Tensor) - 数据类型为float16或float32的Tanh输入。shape为 :math:`(N,*)` ,其中 :math:`*` 表示任意的附加维度。
- **x** (Tensor) - 任意维度的Tensor,数据类型为float16或float32的输入。

**输出:**


Loading…
Cancel
Save