mindspore.nn.LeakyReLU ======================= .. py:class:: mindspore.nn.LeakyReLU(alpha=0.2) Leaky ReLU激活函数。 该激活函数定义如下: .. math:: \text{leaky_relu}(x) = \begin{cases}x, &\text{if } x \geq 0; \cr {\alpha} * x, &\text{otherwise.}\end{cases} 其中,:math:`\alpha` 表示 `alpha` 参数。 更多细节详见 `Rectifier Nonlinearities Improve Neural Network Acoustic Models `_。 **参数:** **alpha** (`Union[int, float]`) – x<0时激活函数的斜率,默认值:0.2。 **输入:** **x** (Tensor) - 计算LeakyReLU的任意维度的Tensor。 **输出:** Tensor,数据类型和shape与 `x` 相同。 **异常:** **TypeError** - `alpha` 不是浮点数或整数。 **支持平台:** ``Ascend`` ``GPU`` ``CPU`` **样例:** >>> x = Tensor(np.array([[-1.0, 4.0, -8.0], [2.0, -5.0, 9.0]]), mindspore.float32) >>> leaky_relu = nn.LeakyReLU() >>> output = leaky_relu(x) >>> print(output) [[-0.2 4. -1.6] [ 2. -1. 9. ]]