|
123456789101112131415161718192021222324252627 |
- mindspore.ops.ReLU
- ===================
-
- .. py:class:: mindspore.ops.ReLU
-
- 线性修正单元激活函数(Rectified Linear Unit)。
-
- 返回 :math:`\max(x,\ 0)` 的值,负值神经元将被设置为0, 正值神经元将保持不变。
-
- .. math::
- ReLU(x) = (x)^+ = max(0, x)
-
- .. note::
- 一般来说,与 `ReLUV2` 相比,此算子更常用。且 `ReLUV2` 会多输出一个掩码。
-
- **输入:**
-
- - **input_x** (Tensor) - ReLU的输入,任意维度的Tensor。其数据类型为数值型。
-
- **输出:**
-
- Tensor,数据类型和shape与 `input_x` 相同。
-
- **异常:**
-
- - **TypeError** - `input_x` 的数据类型不是数值型。
- - **TypeError** - `input_x` 不是Tensor。
|