Browse Source

modify doc

feature/build-system-rewrite
xumengjuan1 4 years ago
parent
commit
2cbd37ced3
13 changed files with 107 additions and 111 deletions
  1. +4
    -4
      docs/api/api_python/dataset/mindspore.dataset.Dataset.add_sampler.rst
  2. +20
    -20
      docs/api/api_python/dataset/mindspore.dataset.Dataset.b.rst
  3. +25
    -25
      docs/api/api_python/dataset/mindspore.dataset.Dataset.c.rst
  4. +37
    -37
      docs/api/api_python/dataset/mindspore.dataset.Dataset.rst
  5. +4
    -4
      docs/api/api_python/dataset/mindspore.dataset.Dataset.use_sampler.rst
  6. +6
    -6
      docs/api/api_python/dataset/mindspore.dataset.Dataset.zip.rst
  7. +1
    -1
      docs/api/api_python/nn/mindspore.nn.Adam.rst
  8. +0
    -4
      docs/api/api_python/nn/mindspore.nn.AdamOffload.rst
  9. +1
    -1
      docs/api/api_python/nn/mindspore.nn.MAE.rst
  10. +1
    -1
      docs/api/api_python/nn/mindspore.nn.MSE.rst
  11. +2
    -2
      docs/api/api_python/nn/mindspore.nn.Optimizer.rst
  12. +3
    -3
      docs/api/api_python/nn/mindspore.nn.optim_target_unique_for_sparse.b.rst
  13. +3
    -3
      docs/api/api_python/nn/mindspore.nn.optim_target_unique_for_sparse.rst

+ 4
- 4
docs/api/api_python/dataset/mindspore.dataset.Dataset.add_sampler.rst View File

@@ -1,7 +1,7 @@
.. py:method:: add_sampler(new_sampler)
.. py:method:: add_sampler(new_sampler)

为当前数据集对象添加采样器。
为当前数据集对象添加采样器。

**参数:**
**参数:**

- **new_sampler** (Sampler) :作用于当前数据集对象的采样器。
- **new_sampler** (Sampler) :作用于当前数据集对象的采样器。

+ 20
- 20
docs/api/api_python/dataset/mindspore.dataset.Dataset.b.rst View File

@@ -1,26 +1,26 @@
.. py:method:: bucket_batch_by_length(column_names, bucket_boundaries, bucket_batch_sizes, element_length_function=None, pad_info=None, pad_to_bucket_boundary=False, drop_remainder=False)
.. py:method:: bucket_batch_by_length(column_names, bucket_boundaries, bucket_batch_sizes, element_length_function=None, pad_info=None, pad_to_bucket_boundary=False, drop_remainder=False)

根据数据的长度进行分桶,每个桶将在数据填满的时候进行填充和批处理操作。
根据数据的长度进行分桶,每个桶将在数据填满的时候进行填充和批处理操作。

对数据集中的每一条数据进行长度计算,根据该条数据的长度计算结果和每个分桶的范围将该数据归类到特定的桶里面。
当某个分桶中数据条数达到指定的大小 `bucket_batch_sizes` 时,将根据 `pad_info` 的信息对分桶进行填充,再进行批处理。
对数据集中的每一条数据进行长度计算,根据该条数据的长度计算结果和每个分桶的范围将该数据归类到特定的桶里面。
当某个分桶中数据条数达到指定的大小 `bucket_batch_sizes` 时,将根据 `pad_info` 的信息对分桶进行填充,再进行批处理。

**参数:**
**参数:**

- **column_names** (list[str]) - 传递给参数 `element_length_function` 的数据列,用于计算数据的长度。
- **bucket_boundaries** (list[int]) - 指定各个分桶的上边界值,列表的数值必须严格递增。
如果有n个边界,则会创建n+1个桶,分配后桶的边界如下:[0, bucket_boundaries[0]),[bucket_boundaries[i], bucket_boundaries[i+1]),[bucket_boundaries[n-1], inf),其中,0<i<n-1。
- **bucket_batch_sizes** (list[int]) - 指定每个分桶的批数据大小,必须包含 `len(bucket_boundaries)+1` 个元素。
- **element_length_function** (Callable, 可选) - 长度计算函数。要求接收 `len(column_names)` 个输入参数,并返回一个整数代表该条数据的长度。
如果未指定该参数,则参数 `column_names` 的长度必须为1,此时该列数据的shape[0]值将被当做数据长度。默认值:None,不指定。
- **pad_info** (dict, 可选) - 对指定数据列进行填充。通过传入dict来指定列信息与填充信息,要求dict的键是要填充的数据列名,dict的值是包含2个元素的元组。
元组中第1个元素表示要扩展至的目标shape,第2个元素表示要填充的值。
如果某一个数据列未指定将要填充后的shape和填充值,则该列中的每条数据都将填充至该批次中最长数据的长度,且填充值为0。
注意,`pad_info` 中任何填充shape为None的列,其每条数据长度都将被填充为当前批处理中最数据的长度,除非指定 `pad_to_bucket_boundary` 为True。默认值:None,不填充。
- **pad_to_bucket_boundary** (bool, 可选) - 如果为True,则 `pad_info` 中填充shape为None的列,会被填充至由参数 `bucket_batch_sizes` 指定的对应分桶长度-1的长度。
如果有任何数据落入最后一个分桶中,则将报错。默认值:False。
- **drop_remainder** (bool, 可选) - 当每个分桶中的最后一个批处理数据数据条目小于 `bucket_batch_sizes` 时,是否丢弃该批处理数据。默认值:False,不丢弃。
- **column_names** (list[str]) - 传递给参数 `element_length_function` 的数据列,用于计算数据的长度。
- **bucket_boundaries** (list[int]) - 指定各个分桶的上边界值,列表的数值必须严格递增。
如果有n个边界,则会创建n+1个桶,分配后桶的边界如下:[0, bucket_boundaries[0]),[bucket_boundaries[i], bucket_boundaries[i+1]),[bucket_boundaries[n-1], inf),其中,0<i<n-1。
- **bucket_batch_sizes** (list[int]) - 指定每个分桶的批数据大小,必须包含 `len(bucket_boundaries)+1` 个元素。
- **element_length_function** (Callable, 可选) - 长度计算函数。要求接收 `len(column_names)` 个输入参数,并返回一个整数代表该条数据的长度。
如果未指定该参数,则参数 `column_names` 的长度必须为1,此时该列数据的shape[0]值将被当做数据长度。默认值:None,不指定。
- **pad_info** (dict, 可选) - 对指定数据列进行填充。通过传入dict来指定列信息与填充信息,要求dict的键是要填充的数据列名,dict的值是包含2个元素的元组。
元组中第1个元素表示要扩展至的目标shape,第2个元素表示要填充的值。
如果某一个数据列未指定将要填充后的shape和填充值,则该列中的每条数据都将填充至该批次中最长数据的长度,且填充值为0。
注意,`pad_info` 中任何填充shape为None的列,其每条数据长度都将被填充为当前批处理中最数据的长度,除非指定 `pad_to_bucket_boundary` 为True。默认值:None,不填充。
- **pad_to_bucket_boundary** (bool, 可选) - 如果为True,则 `pad_info` 中填充shape为None的列,会被填充至由参数 `bucket_batch_sizes` 指定的对应分桶长度-1的长度。
如果有任何数据落入最后一个分桶中,则将报错。默认值:False。
- **drop_remainder** (bool, 可选) - 当每个分桶中的最后一个批处理数据数据条目小于 `bucket_batch_sizes` 时,是否丢弃该批处理数据。默认值:False,不丢弃。

**返回:**
**返回:**

Dataset,按长度进行分桶和批处理操作后的数据集对象。
Dataset,按长度进行分桶和批处理操作后的数据集对象。

+ 25
- 25
docs/api/api_python/dataset/mindspore.dataset.Dataset.c.rst View File

@@ -1,37 +1,37 @@
.. py:method:: build_sentencepiece_vocab(columns, vocab_size, character_coverage, model_type, params)
.. py:method:: build_sentencepiece_vocab(columns, vocab_size, character_coverage, model_type, params)

迭代源数据集对象获取数据并构建SentencePiece词汇表。
迭代源数据集对象获取数据并构建SentencePiece词汇表。

**参数:**
**参数:**

- **columns** (list[str]) - 指定 `build_sentencepiece_vocab` 操作的输入列,会从该列获取数据构造词汇表。
- **vocab_size** (int) - 词汇表的容量。
- **character_coverage** (float) - 模型涵盖的字符百分比,必须介于0.98和1.0之间。
对于具有丰富字符集的语言,如日语或中文字符集,推荐使用0.9995;对于其他字符集较小的语言,比如英语或拉丁文,推荐使用1.0。
- **model_type** (SentencePieceModel) - 训练的SentencePiece模型类型,可取值为'SentencePieceModel.UNIGRAM'、'SentencePieceModel.BPE'、'SentencePieceModel.CHAR'或'SentencePieceModel.WORD'。
当取值为'SentencePieceModel.WORD'时,输入的数据必须进行预分词(pretokenize)。默认值:SentencePieceModel.UNIGRAM。
- **params** (dict) - 如果希望使用SentencePiece的其他参数,可以构造一个dict进行传入,键为SentencePiece库接口的输入参数名,值为参数值。
- **columns** (list[str]) - 指定 `build_sentencepiece_vocab` 操作的输入列,会从该列获取数据构造词汇表。
- **vocab_size** (int) - 词汇表的容量。
- **character_coverage** (float) - 模型涵盖的字符百分比,必须介于0.98和1.0之间。
对于具有丰富字符集的语言,如日语或中文字符集,推荐使用0.9995;对于其他字符集较小的语言,比如英语或拉丁文,推荐使用1.0。
- **model_type** (SentencePieceModel) - 训练的SentencePiece模型类型,可取值为'SentencePieceModel.UNIGRAM'、'SentencePieceModel.BPE'、'SentencePieceModel.CHAR'或'SentencePieceModel.WORD'。
当取值为'SentencePieceModel.WORD'时,输入的数据必须进行预分词(pretokenize)。默认值:SentencePieceModel.UNIGRAM。
- **params** (dict) - 如果希望使用SentencePiece的其他参数,可以构造一个dict进行传入,键为SentencePiece库接口的输入参数名,值为参数值。

**返回:**
**返回:**

构建好的SentencePiece词汇表。
构建好的SentencePiece词汇表。

.. py:method:: build_vocab(columns, freq_range, top_k, special_tokens, special_first)
.. py:method:: build_vocab(columns, freq_range, top_k, special_tokens, special_first)

迭代源数据集对象获取数据并构建词汇表。
迭代源数据集对象获取数据并构建词汇表。

收集数据集中所有的不重复单词,并返回 `top_k` 个最常见的单词组成的词汇表(如果指定了 `top_k` )。
收集数据集中所有的不重复单词,并返回 `top_k` 个最常见的单词组成的词汇表(如果指定了 `top_k` )。

**参数:**
**参数:**

- **columns** (Union[str, list[str]]) :指定 `build_vocab` 操作的输入列,会从该列获取数据构造词汇表。
- **freq_range** (tuple[int]) - 由(min_frequency, max_frequency)组成的整数元组,代表词汇出现的频率范围,在这个频率范围的词汇会被保存下来。
取值范围需满足:0 <= min_frequency <= max_frequency <= 单词总数,其中min_frequency、max_frequency的默认值分别设置为0、单词总数。
- **top_k** (int) - 使用 `top_k` 个最常见的单词构建词汇表。 假如指定了参数 `freq_range` ,则优先统计给定频率范围内的词汇,再根据参数 `top_k` 选取最常见的单词构建词汇表。
如果 `top_k` 的值大于单词总数,则取所有单词构建词汇表。
- **special_tokens** (list[str]) - 指定词汇表的特殊标记(special token),如'[UNK]'、'[SEP]'。
- **special_first** (bool) - 是否将参数 `special_tokens` 指定的特殊标记添加到词汇表的开头。如果为True则放到开头,否则放到词汇表的结尾。
- **columns** (Union[str, list[str]]) :指定 `build_vocab` 操作的输入列,会从该列获取数据构造词汇表。
- **freq_range** (tuple[int]) - 由(min_frequency, max_frequency)组成的整数元组,代表词汇出现的频率范围,在这个频率范围的词汇会被保存下来。
取值范围需满足:0 <= min_frequency <= max_frequency <= 单词总数,其中min_frequency、max_frequency的默认值分别设置为0、单词总数。
- **top_k** (int) - 使用 `top_k` 个最常见的单词构建词汇表。 假如指定了参数 `freq_range` ,则优先统计给定频率范围内的词汇,再根据参数 `top_k` 选取最常见的单词构建词汇表。
如果 `top_k` 的值大于单词总数,则取所有单词构建词汇表。
- **special_tokens** (list[str]) - 指定词汇表的特殊标记(special token),如'[UNK]'、'[SEP]'。
- **special_first** (bool) - 是否将参数 `special_tokens` 指定的特殊标记添加到词汇表的开头。如果为True则放到开头,否则放到词汇表的结尾。

**返回:**
**返回:**

构建好的词汇表。
构建好的词汇表。

+ 37
- 37
docs/api/api_python/dataset/mindspore.dataset.Dataset.rst View File

@@ -1,52 +1,52 @@
.. py:method:: apply(apply_func)
.. py:method:: apply(apply_func)
对数据集对象执行给定操作函数。
对数据集对象执行给定操作函数。
**参数:**
**参数:**
**apply_func** (function):数据集处理函数,要求该函数的输入是一个 `Dataset` 对象,返回的是处理后的 `Dataset` 对象。
**apply_func** (function):数据集处理函数,要求该函数的输入是一个 `Dataset` 对象,返回的是处理后的 `Dataset` 对象。
**返回:**
**返回:**
执行了给定操作函数的数据集对象。
执行了给定操作函数的数据集对象。
**异常:**
**异常:**
- **TypeError:** `apply_func` 的类型不是函数。
- **TypeError:** `apply_func` 未返回Dataset对象。
- **TypeError:** `apply_func` 的类型不是函数。
- **TypeError:** `apply_func` 未返回Dataset对象。
.. py:method:: batch(batch_size, drop_remainder=False, num_parallel_workers=None, per_batch_map=None, input_columns=None, output_columns=None, column_order=None, pad_info=None, python_multiprocessing=False, max_rowsize=16)
.. py:method:: batch(batch_size, drop_remainder=False, num_parallel_workers=None, per_batch_map=None, input_columns=None, output_columns=None, column_order=None, pad_info=None, python_multiprocessing=False, max_rowsize=16)
将数据集中连续 `batch_size` 条数据合并为一个批处理数据。
将数据集中连续 `batch_size` 条数据合并为一个批处理数据。
`batch` 操作要求每列中的数据具有相同的shape。如果指定了参数 `per_batch_map` ,该参数将作用于批处理后的数据。
`batch` 操作要求每列中的数据具有相同的shape。如果指定了参数 `per_batch_map` ,该参数将作用于批处理后的数据。
.. note::
执行 `repeat` 和 `batch` 操作的先后顺序,会影响批处理数据的数量及 `per_batch_map` 的结果。建议在 `batch` 操作完成后执行 `repeat` 操作。
.. note::
执行 `repeat` 和 `batch` 操作的先后顺序,会影响批处理数据的数量及 `per_batch_map` 的结果。建议在 `batch` 操作完成后执行 `repeat` 操作。
**参数:**
**参数:**
- **batch_size** (Union[int, Callable]) - 指定每个批处理数据包含的数据条目。
如果 `batch_size` 为整型,则直接表示每个批处理数据大小;
如果为可调用对象,则可以通过自定义行为动态指定每个批处理数据大小,要求该可调用对象接收一个参数BatchInfo,返回一个整形代表批处理大小,用法请参考样例(3)。
- **drop_remainder** (bool, 可选) - 当最后一个批处理数据包含的数据条目小于 `batch_size` 时,是否将该批处理丢弃,不传递给下一个操作。默认值:False,不丢弃。
- **num_parallel_workers** (int, 可选) - 指定 `batch` 操作的并发进程数/线程数(由参数 `python_multiprocessing` 决定当前为多进程模式或多线程模式)。
默认值:None,使用mindspore.dataset.config中配置的线程数。
- **per_batch_map** (callable, 可选) - 可调用对象,以(list[Tensor], list[Tensor], ..., BatchInfo)作为输入参数,处理后返回(list[Tensor], list[Tensor],...)作为新的数据列。
输入参数中每个list[Tensor]代表给定数据列中的一批Tensor,list[Tensor]的个数应与 `input_columns` 中传入列名的数量相匹配,
在返回的(list[Tensor], list[Tensor], ...)中,list[Tensor]的个数应与输入相同,如果输出列数与输入列数不一致,则需要指定 `output_columns`。
该可调用对象的最后一个输入参数始终是BatchInfo,用于获取数据集的信息,用法参考样例(2)。
- **input_columns** (Union[str, list[str]], 可选):指定 `batch` 操作的输入数据列。
如果 `per_batch_map` 不为None,列表中列名的个数应与 `per_batch_map` 中包含的列数匹配。默认值:None,不指定。
- **output_columns** (Union[str, list[str]], 可选) - 指定 `batch` 操作的输出数据列。如果输入数据列与输入数据列的长度不相等,则必须指定此参数。
此列表中列名的数量必须与 `per_batch_map` 方法的返回值数量相匹配。默认值:None,输出列将与输入列具有相同的名称。
- **column_order** (Union[str, list[str]], 可选) - 指定传递到下一个数据集操作的数据列顺序。
如果 `input_column` 长度不等于 `output_column` 长度,则此参数必须指定。
注意:列名不限定在 `input_columns` 和 `output_columns` 中指定的列,也可以是上一个操作输出的未被处理的数据列,详细可参阅使用样例(4)。默认值:None,按照原输入顺序排列。
- **pad_info** (dict, 可选) - 对给定数据列进行填充。通过传入dict来指定列信息与填充信息,例如 `pad_info={"col1":([224,224],0)}` ,
则将列名为"col1"的数据列扩充到shape为[224,224]的Tensor,缺失的值使用0填充。默认值:None,不填充。
- **python_multiprocessing** (bool, 可选) - 启动Python多进程模式并行执行 `per_batch_map` 。如果 `per_batch_map` 的计算量很大,此选项可能会很有用。默认值:False,不启用多进程。
- **batch_size** (Union[int, Callable]) - 指定每个批处理数据包含的数据条目。
如果 `batch_size` 为整型,则直接表示每个批处理数据大小;
如果为可调用对象,则可以通过自定义行为动态指定每个批处理数据大小,要求该可调用对象接收一个参数BatchInfo,返回一个整形代表批处理大小,用法请参考样例(3)。
- **drop_remainder** (bool, 可选) - 当最后一个批处理数据包含的数据条目小于 `batch_size` 时,是否将该批处理丢弃,不传递给下一个操作。默认值:False,不丢弃。
- **num_parallel_workers** (int, 可选) - 指定 `batch` 操作的并发进程数/线程数(由参数 `python_multiprocessing` 决定当前为多进程模式或多线程模式)。
默认值:None,使用mindspore.dataset.config中配置的线程数。
- **per_batch_map** (callable, 可选) - 可调用对象,以(list[Tensor], list[Tensor], ..., BatchInfo)作为输入参数,处理后返回(list[Tensor], list[Tensor],...)作为新的数据列。
输入参数中每个list[Tensor]代表给定数据列中的一批Tensor,list[Tensor]的个数应与 `input_columns` 中传入列名的数量相匹配,
在返回的(list[Tensor], list[Tensor], ...)中,list[Tensor]的个数应与输入相同,如果输出列数与输入列数不一致,则需要指定 `output_columns`。
该可调用对象的最后一个输入参数始终是BatchInfo,用于获取数据集的信息,用法参考样例(2)。
- **input_columns** (Union[str, list[str]], 可选):指定 `batch` 操作的输入数据列。
如果 `per_batch_map` 不为None,列表中列名的个数应与 `per_batch_map` 中包含的列数匹配。默认值:None,不指定。
- **output_columns** (Union[str, list[str]], 可选) - 指定 `batch` 操作的输出数据列。如果输入数据列与输入数据列的长度不相等,则必须指定此参数。
此列表中列名的数量必须与 `per_batch_map` 方法的返回值数量相匹配。默认值:None,输出列将与输入列具有相同的名称。
- **column_order** (Union[str, list[str]], 可选) - 指定传递到下一个数据集操作的数据列顺序。
如果 `input_column` 长度不等于 `output_column` 长度,则此参数必须指定。
注意:列名不限定在 `input_columns` 和 `output_columns` 中指定的列,也可以是上一个操作输出的未被处理的数据列,详细可参阅使用样例(4)。默认值:None,按照原输入顺序排列。
- **pad_info** (dict, 可选) - 对给定数据列进行填充。通过传入dict来指定列信息与填充信息,例如 `pad_info={"col1":([224,224],0)}` ,
则将列名为"col1"的数据列扩充到shape为[224,224]的Tensor,缺失的值使用0填充。默认值:None,不填充。
- **python_multiprocessing** (bool, 可选) - 启动Python多进程模式并行执行 `per_batch_map` 。如果 `per_batch_map` 的计算量很大,此选项可能会很有用。默认值:False,不启用多进程。
**返回:**
**返回:**
Dataset, `batch` 操作后的数据集对象。
Dataset, `batch` 操作后的数据集对象。

+ 4
- 4
docs/api/api_python/dataset/mindspore.dataset.Dataset.use_sampler.rst View File

@@ -1,7 +1,7 @@
.. py:method:: use_sampler(new_sampler)
.. py:method:: use_sampler(new_sampler)

为当前数据集对象更换一个新的采样器。
为当前数据集对象更换一个新的采样器。

**参数:**
**参数:**

- **new_sampler** (Sampler) :替换的新采样器。
- **new_sampler** (Sampler) :替换的新采样器。

+ 6
- 6
docs/api/api_python/dataset/mindspore.dataset.Dataset.zip.rst View File

@@ -1,11 +1,11 @@
.. py:method:: zip(datasets)
.. py:method:: zip(datasets)

将数据集对象和输入的数据集对象或者数据集对象元组按列进行合并压缩。输入数据集对象中不能有重名的列。
将数据集对象和输入的数据集对象或者数据集对象元组按列进行合并压缩。输入数据集对象中不能有重名的列。

**参数:**
**参数:**

- **datasets** (Union[tuple, class Dataset]) - 数据集对象的元组或单个数据集对象与当前数据集对象一起合并压缩。
- **datasets** (Union[tuple, class Dataset]) - 数据集对象的元组或单个数据集对象与当前数据集对象一起合并压缩。

**返回:**
**返回:**

ZipDataset,合并压缩后的数据集对象。
ZipDataset,合并压缩后的数据集对象。

+ 1
- 1
docs/api/api_python/nn/mindspore.nn.Adam.rst View File

@@ -67,4 +67,4 @@ mindspore.nn.Adam
- **ValueError** - `weight_decay` 小于0。


.. include:: mindspore.nn.optim_target_unique_for_sparse.rst
.. include:: mindspore.nn.optim_target_unique_for_sparse.rst

+ 0
- 4
docs/api/api_python/nn/mindspore.nn.AdamOffload.rst View File

@@ -29,14 +29,10 @@ mindspore.nn.AdamOffload
- **params** (Union[list[Parameter], list[dict]]) - 必须是 `Parameter` 组成的列表或字典组成的列表。当列表元素是字典时,字典的键可以是"params"、"lr"、"weight_decay"、和"order_params":

.. include:: mindspore.nn.optim_group_param.rst

.. include:: mindspore.nn.optim_group_lr.rst

.. include:: mindspore.nn.optim_group_weight_decay.rst

.. include:: mindspore.nn.optim_group_order.rst


- **learning_rate** (Union[float, Tensor, Iterable, LearningRateSchedule]): 默认值:1e-3。

.. include:: mindspore.nn.optim_arg_dynamic_lr.rst


+ 1
- 1
docs/api/api_python/nn/mindspore.nn.MAE.rst View File

@@ -8,7 +8,7 @@ mindspore.nn.MAE
计算输入 :math:`x` 和目标 :math:`y` 各元素之间的平均绝对误差。

.. math::
\text{MAE} = \frac{\sum_{i=1}^n \|y_{pred}_i - y_i\|}{n}
\text{MAE} = \frac{\sum_{i=1}^n \|{y\_pred}_i - y_i\|}{n}

这里, :math:`n` 是batch size。



+ 1
- 1
docs/api/api_python/nn/mindspore.nn.MSE.rst View File

@@ -8,7 +8,7 @@ mindspore.nn.MSE
计算输入 :math:`x` 和目标 :math:`y` 各元素之间的平均平方误差。

.. math::
\text{MSE}(x,\ y) = \frac{\sum_{i=1}^n(y_{pred}_i - y_i)^2}{n}
\text{MSE}(x,\ y) = \frac{\sum_{i=1}^n({y\_pred}_i - y_i)^2}{n}

其中, :math:`n` 为batch size。



+ 2
- 2
docs/api/api_python/nn/mindspore.nn.Optimizer.rst View File

@@ -112,6 +112,6 @@ mindspore.nn.Optimizer

tuple[Tensor],还原后的梯度。

.. include:: mindspore.nn.optim_target_unique_for_sparse.rst
.. include:: mindspore.nn.optim_target_unique_for_sparse.rst

.. include:: mindspore.nn.optim_target_unique_for_sparse.b.rst
.. include:: mindspore.nn.optim_target_unique_for_sparse.b.rst

+ 3
- 3
docs/api/api_python/nn/mindspore.nn.optim_target_unique_for_sparse.b.rst View File

@@ -1,4 +1,4 @@
.. py:method:: unique
:property:
.. py:method:: unique
:property:
该属性表示是否在优化器中进行梯度去重,通常用于稀疏网络。如果梯度是稀疏的则设置为True。如果前向稀疏网络已对权重去重,即梯度是稠密的,则设置为False。未进行任何配置时默认为True。
该属性表示是否在优化器中进行梯度去重,通常用于稀疏网络。如果梯度是稀疏的则设置为True。如果前向稀疏网络已对权重去重,即梯度是稠密的,则设置为False。未进行任何配置时默认为True。

+ 3
- 3
docs/api/api_python/nn/mindspore.nn.optim_target_unique_for_sparse.rst View File

@@ -1,4 +1,4 @@
.. py:method:: target
:property:
.. py:method:: target
:property:

该属性用于指定在主机(host)上还是设备(device)上更新参数。输入类型为str,只能是'CPU','Ascend'或'GPU'。
该属性用于指定在主机(host)上还是设备(device)上更新参数。输入类型为str,只能是'CPU','Ascend'或'GPU'。

Loading…
Cancel
Save