You can not select more than 25 topics Topics must start with a chinese character,a letter or number, can include dashes ('-') and can be up to 35 characters long.

customize_losses.md 4.6 kB

2 years ago
123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125
  1. # 教程 6: 自定义损失函数
  2. MMDetection 为用户提供了不同的损失函数。但是默认的配置可能无法适应不同的数据和模型,所以用户可能会希望修改某一个损失函数来适应新的情况。
  3. 本教程首先详细的解释计算损失的过程然后给出一些关于如何修改每一个步骤的指导。对损失的修改可以被分为微调和加权。
  4. ## 一个损失的计算过程
  5. 给定输入(包括预测和目标,以及权重),损失函数会把输入的张量映射到最后的损失标量。映射过程可以分为下面四个步骤:
  6. 1. 设置采样方法为对正负样本进行采样。
  7. 2. 通过损失核函数获取**元素**或者**样本**损失。
  8. 3. 通过权重张量来给损失**逐元素**权重。
  9. 4. 把损失张量归纳为一个**标量**。
  10. 5. 用一个**张量**给当前损失一个权重。
  11. ## 设置采样方法(步骤 1)
  12. 对于一些损失函数,需要采样策略来避免正负样本之间的不平衡。
  13. 例如,在RPN head中使用`CrossEntropyLoss`时,我们需要在`train_cfg`中设置`RandomSampler`
  14. ```python
  15. train_cfg=dict(
  16. rpn=dict(
  17. sampler=dict(
  18. type='RandomSampler',
  19. num=256,
  20. pos_fraction=0.5,
  21. neg_pos_ub=-1,
  22. add_gt_as_proposals=False))
  23. ```
  24. 对于其他一些具有正负样本平衡机制的损失,例如 Focal Loss、GHMC 和 QualityFocalLoss,不再需要进行采样。
  25. ## 微调损失
  26. 微调一个损失主要与步骤 2,4,5 有关,大部分的修改可以在配置文件中指定。这里我们用 [Focal Loss (FL)](https://github.com/open-mmlab/mmdetection/blob/master/mmdet/models/losses/focal_loss.py) 作为例子。
  27. 下面的代码分别是构建 FL 的方法和它的配置文件,他们是一一对应的。
  28. ```python
  29. @LOSSES.register_module()
  30. class FocalLoss(nn.Module):
  31. def __init__(self,
  32. use_sigmoid=True,
  33. gamma=2.0,
  34. alpha=0.25,
  35. reduction='mean',
  36. loss_weight=1.0):
  37. ```
  38. ```python
  39. loss_cls=dict(
  40. type='FocalLoss',
  41. use_sigmoid=True,
  42. gamma=2.0,
  43. alpha=0.25,
  44. loss_weight=1.0)
  45. ```
  46. ### 微调超参数(步骤2)
  47. `gamma` 和 `beta` 是 Focal Loss 中的两个超参数。如果我们想把 `gamma` 的值设为 1.5,把 `alpha` 的值设为 0.5,我们可以在配置文件中按照如下指定:
  48. ```python
  49. loss_cls=dict(
  50. type='FocalLoss',
  51. use_sigmoid=True,
  52. gamma=1.5,
  53. alpha=0.5,
  54. loss_weight=1.0)
  55. ```
  56. ### 微调归纳方式(步骤4)
  57. Focal Loss 默认的归纳方式是 `mean`。如果我们想把归纳方式从 `mean` 改成 `sum`,我们可以在配置文件中按照如下指定:
  58. ```python
  59. loss_cls=dict(
  60. type='FocalLoss',
  61. use_sigmoid=True,
  62. gamma=2.0,
  63. alpha=0.25,
  64. loss_weight=1.0,
  65. reduction='sum')
  66. ```
  67. ### 微调损失权重(步骤5)
  68. 这里的损失权重是一个标量,他用来控制多任务学习中不同损失的重要程度,例如,分类损失和回归损失。如果我们想把分类损失的权重设为 0.5,我们可以在配置文件中如下指定:
  69. ```python
  70. loss_cls=dict(
  71. type='FocalLoss',
  72. use_sigmoid=True,
  73. gamma=2.0,
  74. alpha=0.25,
  75. loss_weight=0.5)
  76. ```
  77. ## 加权损失(步骤3)
  78. 加权损失就是我们逐元素修改损失权重。更具体来说,我们给损失张量乘以一个与他有相同形状的权重张量。所以,损失中不同的元素可以被赋予不同的比例,所以这里叫做逐元素。损失的权重在不同模型中变化很大,而且与上下文相关,但是总的来说主要有两种损失权重:分类损失的 `label_weights` 和边界框的 `bbox_weights`。你可以在相应的头中的 `get_target` 方法中找到他们。这里我们使用 [ATSSHead](https://github.com/open-mmlab/mmdetection/blob/master/mmdet/models/dense_heads/atss_head.py#L530) 作为一个例子。它继承了 [AnchorHead](https://github.com/open-mmlab/mmdetection/blob/master/mmdet/models/dense_heads/anchor_head.py),但是我们重写它的
  79. `get_targets` 方法来产生不同的 `label_weights` 和 `bbox_weights`。
  80. ```
  81. class ATSSHead(AnchorHead):
  82. ...
  83. def get_targets(self,
  84. anchor_list,
  85. valid_flag_list,
  86. gt_bboxes_list,
  87. img_metas,
  88. gt_bboxes_ignore_list=None,
  89. gt_labels_list=None,
  90. label_channels=1,
  91. unmap_outputs=True):
  92. ```

No Description

Contributors (3)