You can not select more than 25 topics Topics must start with a chinese character,a letter or number, can include dashes ('-') and can be up to 35 characters long.

mindspore.nn.Conv3dTranspose.rst 7.7 kB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109
  1. mindspore.nn.Conv3dTranspose
  2. =============================
  3. .. py:class:: mindspore.nn.Conv3dTranspose(in_channels, out_channels, kernel_size, stride=1, pad_mode='same', padding=0, dilation=1, group=1, output_padding=0, has_bias=False, weight_init='normal', bias_init='zeros', data_format='NCDHW')
  4. 三维转置卷积层。
  5. 计算三维转置卷积,也称为反卷积(实际不是实际的反卷积)。
  6. 转置卷积算子将每个输入元素乘以learnable kernel,并把所有输入特征平面的输出相加。
  7. 该算子可以看成Conv3d相对于其输入的梯度。
  8. `x` 通常shape为 :math:`(N, C, D, H, W)` ,其中 :math:`N` 是batch size, :math:`C` 是通道数, :math:`D` 是特征层的深度, :math:`H` 是特征高度, :math:`W` 是特征层的宽度。
  9. 转置卷积的计算过程相当于卷积的反向计算。
  10. 对输入填充 :math:`dilation * (kernel\_size - 1) - padding` 个零。
  11. 因此,当Conv3d和ConvTranspose3d使用相同的参数初始化时,它们的输入和输出shape是互逆的。
  12. 但是,当stride>1时,Conv3d将多个输入的shape映射到同一个输出shape。
  13. ConvTranspose3d提供padding参数,增加一侧或多侧计算的输出shape。
  14. 输出的高度和宽度定义如下:
  15. 如果'pad_mode'设置为"pad",
  16. .. math::
  17. D_{out} = (D_{in} - 1) \times \text{stride_d} - 2 \times \text{padding_d} + \text{dilation_d} \times
  18. (\text{kernel_size_d} - 1) + \text{output_padding_d} + 1
  19. H_{out} = (H_{in} - 1) \times \text{stride_h} - 2 \times \text{padding_h} + \text{dilation_h} \times
  20. (\text{kernel_size_h} - 1) + \text{output_padding_h} + 1
  21. W_{out} = (W_{in} - 1) \times \text{stride_w} - 2 \times \text{padding_w} + \text{dilation_w} \times
  22. (\text{kernel_size_w} - 1) + \text{output_padding_w} + 1
  23. 如果'pad_mode'设置为"same",
  24. .. math::
  25. D_{out} = (D_{in} + \text{stride_d} - 1)/\text{stride_d} \\
  26. H_{out} = (H_{in} + \text{stride_h} - 1)/\text{stride_h} \\
  27. W_{out} = (W_{in} + \text{stride_w} - 1)/\text{stride_w}
  28. 如果'pad_mode'设置为"valid",
  29. .. math::
  30. D_{out} = (D_{in} - 1) \times \text{stride_d} + \text{dilation_d} \times
  31. (\text{kernel_size_d} - 1) + 1 \\
  32. H_{out} = (H_{in} - 1) \times \text{stride_h} + \text{dilation_h} \times
  33. (\text{kernel_size_h} - 1) + 1 \\
  34. W_{out} = (W_{in} - 1) \times \text{stride_w} + \text{dilation_w} \times
  35. (\text{kernel_size_w} - 1) + 1
  36. **参数:**
  37. - **in_channels** (int) - 输入通道数 :math:`C_{in}` 。
  38. - **out_channels** (int) - 输出通道数 :math:`C_{out}` 。
  39. - **kernel_size** (Union[int, tuple[int]]) - 指定三维卷积窗口的深度、高度和宽度。数据类型为int或包含3个整数的tuple。一个整数表示卷积核的深度、高度和宽度均为该值该值。包含3个整数的tuple分别表示卷积核的深度、高度和宽度。
  40. - **stride** (Union[int, tuple[int]]) - 步长大小。数据类型为整型或3个整型的tuple。一个整数表示在深度、高度和宽度方向的滑动步长均为该值。3个整数的tuple分别表示在深度、高度和宽度方向的滑动步长。必须大于等于1。默认值:1。
  41. - **pad_mode** (str) - 选择填充模式。可选值为"pad"、"same"、"valid"。默认值:"same"。
  42. - same:采用补全方式。输出的深度、高度和宽度与输入 `x` 一致。填充总数将在深度、水平和垂直方向进行计算。并尽可能均匀分布到头部、尾部、顶部、底部、左侧和右侧。否则,最后一次将从尾部、底部和右侧进行额外的填充。若设置该模式, `padding` 和 `output_padding` 必须为0。
  43. - valid:采用的丢弃方式。在不填充的前提下返回可能大的深度、高度和宽度的输出。多余的像素会被丢弃。若设置该模式, `padding` 和 `output_padding` 必须为0。
  44. - pad:输入 `x` 两侧的隐式填充。 `padding` 的数量将填充到输入Tensor边框上。 `padding` 必须大于或等于0。
  45. - **padding** (Union(int, tuple[int])) - 待填充的padding值。数据类型为int或包含6个整数的tuple。如果 `padding` 是一个整数,则头部、尾部、顶部,底部,左边和右边的填充都等于 `padding` 。如果 `padding` 是6个整数的tuple,则头部、尾部、顶部、底部、左边和右边的填充分别等于填充padding[0]、padding[1]、padding[2]、padding[3]、padding[4]和padding[5]。默认值:0。
  46. - **dilation** (Union(int, tuple[int])) - 指定用于扩张卷积的扩张速率。数据类型为int或3个整数的tuple。:math:`(dilation_d, dilation_h, dilation_w)` 。目前,深度扩张仅支持1个用例的情况。如果设置为 :math:`k > 1` ,则每个采样位置都跳过 :math:`k - 1` 个像素。其值必须大于或等于1,并以输入 `x` 的深度、高度和宽度为界。默认值:1。
  47. - **group** (int) - 将过滤器拆分为组, `in_ channels` 和 `out_channels` 必须可被组数整除。默认值:1。当前仅支持1个。
  48. - **output_padding** (Union(int, tuple[int])) - 为输出的每个维度添加额外的大小。默认值:0。必须大于或等于0。
  49. - **has_bias** (bool) - 指定图层是否使用偏置矢量。默认值:False。
  50. - **weight_init** (Union[Tensor, str, Initializer, numbers.Number]) - 卷积核的初始化方法。它可以是Tensor,str,初始化实例或numbers.Number。当使用str时,可选“TruncatedNormal”,“Normal”,“Uniform”,“HeUniform”和“XavierUniform”分布以及常量“One”和“Zero”分布的值,可接受别名“ xavier_uniform”,“ he_uniform”,“ ones”和“ zeros”。上述字符串大小写均可。更多细节请参考Initializer的值。默认值:“normal”。
  51. - **bias_init** (Union[Tensor, str, Initializer, numbers.Number]) - 偏置向量的初始化方法。可以使用的初始化方法和字符串与“weight_init”相同。更多细节请参考Initializer的值。默认值:“zeros”。
  52. - **data_format** (str) - 数据格式的可选值。目前仅支持'NCDHW'。
  53. **输入:**
  54. - **x** (Tensor) - shape为 :math:`(N, C_{in}, D_{in}, H_{in}, W_{in})` 的Tensor。目前输入数据类型只支持float16和float32。
  55. **输出:**
  56. Tensor,shape为 :math:`(N, C_{out}, D_{out}, H_{out}, W_{out})` 。
  57. **支持平台:**
  58. ``Ascend`` ``GPU``
  59. **异常:**
  60. - **TypeError** - `in_channels` 、 `out_channels` 或 `group` 不是int。
  61. - **TypeError** - `kernel_size` 、 `stride` 、 `padding` 、 `dilation` 或 `output_padding` 既不是int也不是tuple。
  62. - **TypeError** - 输入数据类型不是float16或float32。
  63. - **ValueError** - `in_channels` 、 `out_channels` 、 `kernel_size` 、 `stride` 或 `dilation` 小于1。
  64. - **ValueError** - `padding` 小于0。
  65. - **ValueError** - `pad_mode` 不是“same”,“valid”或“pad”。
  66. - **ValueError** - `padding` 是长度不等于6的tuple。
  67. - **ValueError** - `pad_mode` 不等于'pad'且 `padding` 不等于(0, 0, 0, 0, 0, 0)。
  68. - **ValueError** - `data_format` 不是'NCDHW'。
  69. **样例:**
  70. >>> x = Tensor(np.ones([32, 16, 10, 32, 32]), mindspore.float32)
  71. >>> conv3d_transpose = nn.Conv3dTranspose(in_channels=16, out_channels=3, kernel_size=(4, 6, 2),
  72. ... pad_mode='pad')
  73. >>> output = conv3d_transpose(x)
  74. >>> print(output.shape)
  75. (32, 3, 13, 37, 33)