You can not select more than 25 topics Topics must start with a chinese character,a letter or number, can include dashes ('-') and can be up to 35 characters long.

mindspore.nn.SmoothL1Loss.rst 2.2 kB

1234567891011121314151617181920212223242526272829303132333435363738394041424344454647484950515253
  1. mindspore.nn.SmoothL1Loss
  2. ============================
  3. .. py:class:: mindspore.nn.SmoothL1Loss(beta=1.0)
  4. 创建一个标准来计算loss函数,如果输入的绝对误差小于 `beta` 则用平方项,否则用绝对误差项。
  5. SmoothL1Loss可以看成 :class:`mindspore.nn.L1Loss` 的修改版本,也可以看成 :class:`mindspore.nn.L1Loss` 和 :class:`mindspore.ops.L2Loss` 的组合。 :class:`mindspore.nn.L1Loss` 计算两个输入Tensor之间的绝对误差,而 :class:`mindspore.ops.L2Loss` 计算两个输入Tensor之间的平方误差。 :class:`mindspore.ops.L2Loss` 通常更快收敛,但对离群值的鲁棒性较差。
  6. 给定两个输入 :math:`x,\ y`,长度为 :math:`N`, unreduced SmoothL1Loss定义如下:
  7. .. math::
  8. L_{i} =
  9. \begin{cases}
  10. \frac{0.5 (x_i - y_i)^{2}}{\text{beta}}, & \text{if } |x_i - y_i| < \text{beta} \\
  11. |x_i - y_i| - 0.5 \text{beta}, & \text{otherwise.}
  12. \end{cases}
  13. 其中, :math:`\text{beta}` 控制loss函数从二次变为线性。 默认值为1.0。 :math:`N` 为batch size。该函数返回一个unreduced loss Tensor。
  14. **参数:**
  15. **beta** (float) - 用于控制loss函数从二次变为线性的参数。默认值:1.0。
  16. **输入:**
  17. - **logits** (Tensor) - 预测值,shape为 :math:`(N, *)` 的Tensor,其中 :math:`*` 表示任意的附加维度数。数据类型必须为float16或float32。
  18. - **labels** (Tensor) - 目标值,shape为 :math:`(N, *)` 的Tensor,数据类型和shape与 `logits` 相同。
  19. **输出:**
  20. Tensor,shape和数据类型与 `logits` 相同。
  21. **异常:**
  22. - **TypeError** - `beta` 不是float。
  23. - **TypeError** - `logits` 或 `labels` 的数据类型既不是float16,也不是float32。
  24. - **ValueError** - `beta` 小于或等于0。
  25. - **ValueError** - `logits` 的shape与 `labels` 不同。
  26. **支持平台:**
  27. ``Ascend`` ``GPU`` ``CPU``
  28. **样例:**
  29. >>> loss = nn.SmoothL1Loss()
  30. >>> logits = Tensor(np.array([1, 2, 3]), mindspore.float32)
  31. >>> labels = Tensor(np.array([1, 2, 2]), mindspore.float32)
  32. >>> output = loss(logits, labels)
  33. >>> print(output)
  34. [0. 0. 0.5]