You can not select more than 25 topics Topics must start with a chinese character,a letter or number, can include dashes ('-') and can be up to 35 characters long.

mindspore.nn.probability.distribution.Gamma.rst 5.1 kB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120
  1. mindspore.nn.probability.distribution.Gamma
  2. ================================================
  3. .. py:class:: mindspore.nn.probability.distribution.Gamma(concentration=None, rate=None, seed=None, dtype=mindspore.float32, name='Gamma')
  4. 伽马分布(Gamma distribution)。
  5. **参数:**
  6. - **concentration** (list, numpy.ndarray, Tensor) - 浓度,也被称为伽马分布的alpha。默认值:None。
  7. - **rate** (list, numpy.ndarray, Tensor) - 逆尺度参数,也被称为伽马分布的beta。默认值:None。
  8. - **seed** (int) - 采样时使用的种子。如果为None,则使用全局种子。默认值:None。
  9. - **dtype** (mindspore.dtype) - 事件样例的类型。默认值:mindspore.float32。
  10. - **name** (str) - 分布的名称。默认值:'Gamma'。
  11. **支持平台:**
  12. ``Ascend``
  13. .. note::
  14. - `concentration` 和 `rate` 必须大于零。
  15. - `dtype` 必须是float,因为伽马分布是连续的。
  16. **样例:**
  17. >>> import mindspore
  18. >>> import mindspore.nn as nn
  19. >>> import mindspore.nn.probability.distribution as msd
  20. >>> from mindspore import Tensor
  21. >>> # 初始化concentration为3.0和rate为4.0的伽马分布。
  22. >>> g1 = msd.Gamma([3.0], [4.0], dtype=mindspore.float32)
  23. >>> # 伽马分布可以在没有参数的情况下初始化。
  24. >>> # 在这种情况下,`concentration`和`rate`必须通过参数传入。
  25. >>> g2 = msd.Gamma(dtype=mindspore.float32)
  26. >>> # 下面是用于测试的Tensor
  27. >>> value = Tensor([1.0, 2.0, 3.0], dtype=mindspore.float32)
  28. >>> concentration_a = Tensor([2.0], dtype=mindspore.float32)
  29. >>> rate_a = Tensor([2.0, 2.0, 2.0], dtype=mindspore.float32)
  30. >>> concentration_b = Tensor([1.0], dtype=mindspore.float32)
  31. >>> rate_b = Tensor([1.0, 1.5, 2.0], dtype=mindspore.float32)
  32. >>>
  33. >>> # 公共接口对应的概率函数的私有接口,包括`prob`、`log_prob`、`cdf`、`log_cdf`、`survival_function`、`log_survival`,具有以下相同的参数。
  34. >>> # 参数:
  35. >>> # value (Tensor):要评估的值。
  36. >>> # concentration (Tensor):分布的浓度。默认值:self._concentration。
  37. >>> # rate (Tensor):分布的逆尺度。默认值:self._rate。
  38. >>> # `prob`示例。
  39. >>> # 通过将'prob'替换为函数的名称,可以对其他概率函数进行类似的调用
  40. >>> ans = g1.prob(value)
  41. >>> print(ans.shape)
  42. (3,)
  43. >>> # 根据分布b进行评估。
  44. >>> ans = g1.prob(value, concentration_b, rate_b)
  45. >>> print(ans.shape)
  46. (3,)
  47. >>> # 在g2的函数调用期间必须传入`concentration`和`rate`。
  48. >>> ans = g2.prob(value, concentration_a, rate_a)
  49. >>> print(ans.shape)
  50. (3,)
  51. >>> # 函数`mean`、`sd`、`mode`、`var`和`entropy`具有相同的参数。
  52. >>> # 参数:
  53. >>> # concentration (Tensor):分布的浓度。默认值:self._concentration。
  54. >>> # rate (Tensor):分布的逆尺度。默认值:self._rate。
  55. >>># `mean`、`sd`、`mode`、`var`和`entropy`的示例相似。
  56. >>> ans = g1.mean()
  57. >>> print(ans.shape)
  58. (1,)
  59. >>> ans = g1.mean(concentration_b, rate_b)
  60. >>> print(ans.shape)
  61. (3,)
  62. >>> # 在函数调用期间必须传入`concentration`和`rate`。
  63. >>> ans = g2.mean(concentration_a, rate_a)
  64. >>> print(ans.shape)
  65. (3,)
  66. >>> # 'kl_loss'和'cross_entropy'的接口相同:
  67. >>> # 参数:
  68. >>> # dist (str):分布的类型。仅支持"Gamma"。
  69. >>> # concentration_b (Tensor):分布b的浓度。
  70. >>> # rate_b (Tensor):分布b的逆尺度。
  71. >>> # concentration_a (Tensor):分布a的浓度。默认值:self._concentration。
  72. >>> # rate_a (Tensor):分布a的逆尺度。默认值:self._rate。
  73. >>> # `kl_loss`示例。`cross_entropy`也类似。
  74. >>> ans = g1.kl_loss('Gamma', concentration_b, rate_b)
  75. >>> print(ans.shape)
  76. (3,)
  77. >>> ans = g1.kl_loss('Gamma', concentration_b, rate_b, concentration_a, rate_a)
  78. >>> print(ans.shape)
  79. (3,)
  80. >>> # 必须传入额外的`concentration`和`rate`。
  81. >>> ans = g2.kl_loss('Gamma', concentration_b, rate_b, concentration_a, rate_a)
  82. >>> print(ans.shape)
  83. (3,)
  84. >>> # `sample`示例。
  85. >>> # 参数:
  86. >>> # shape (tuple):样本的shape。默认值:()
  87. >>> # concentration (Tensor):分布的浓度。默认值:self._concentration。
  88. >>> # rate (Tensor):分布的逆尺度。默认值:self._rate。
  89. >>> ans = g1.sample()
  90. >>> print(ans.shape)
  91. (1,)
  92. >>> ans = g1.sample((2,3))
  93. >>> print(ans.shape)
  94. (2, 3, 1)
  95. >>> ans = g1.sample((2,3), concentration_b, rate_b)
  96. >>> print(ans.shape)
  97. (2, 3, 3)
  98. >>> ans = g2.sample((2,3), concentration_a, rate_a)
  99. >>> print(ans.shape)
  100. (2, 3, 3)
  101. .. py:method:: concentration
  102. :property:
  103. 返回分布的浓度(也称为伽马分布的alpha)。
  104. .. py:method:: rate
  105. :property:
  106. 返回分布的逆尺度(也称为伽马分布的beta)。