|
- mindspore.dataset.Cifar10Dataset
- ================================
-
- .. py:class:: Cifar10Dataset(dataset_dir, usage=None, num_samples=None, num_parallel_workers=None, shuffle=None, sampler=None, num_shards=None, shard_id=None, cache=None)
-
- 用于读取和解析CIFAR-10数据集的源数据集文件。该API目前仅支持解析二进制版本的CIFAR-10文件(CIFAR-10 binary version)。
-
- 生成的数据集有两列: `[image, label]`。`image` 列的数据类型是uint8。`label` 列的数据是uint32类型的标量。
-
- **参数:**
-
- - **dataset_dir** (str): 包含数据集文件的根目录路径。
- - **usage** (str, 可选): 指定数据集的子集,可取值为 `train`,`test 或`all`。使用 `train` 参数将会读取50,000个训练样本,`test` 将会读取10,000个测试样本, `all` 将会读取全部60,000个样本(默认值为None,即全部样本图片)。
- - **num_samples** (int, 可选): 指定从数据集中读取的样本数(可以小于数据集总数,默认值为None,即全部样本图片)。
- - **num_parallel_workers** (int, 可选): 指定读取数据的工作线程数(默认值None,即使用mindspore.dataset.config中配置的线程数)。
- - **shuffle** (bool, 可选): 是否混洗数据集(默认为None,下表中会展示不同配置的预期行为)。
- - **sampler** (Sampler, 可选): 指定从数据集中选取样本的采样器(默认为None,下表中会展示不同配置的预期行为)。
- - **num_shards** (int, 可选): 分布式训练时,将数据集划分成指定的分片数(默认值None)。指定此参数后, `num_samples` 表示每个分片的最大样本数。
- - **shard_id** (int, 可选): 分布式训练时,指定使用的分片ID号(默认值None)。只有当指定了 `num_shards` 时才能指定此参数。
- - **cache** (DatasetCache, 可选): 单节点数据缓存,能够加快数据加载和处理的速度(默认值None,即不使用缓存加速)。
-
- **异常:**
-
- - **RuntimeError:** `dataset_dir` 路径下不包含数据文件。
- - **RuntimeError:** `num_parallel_workers` 超过系统最大线程数。
- - **RuntimeError:** 同时指定了 `sampler` 和 `shuffle` 参数。
- - **RuntimeError:** 同时指定了 `sampler` 和 `num_shards` 参数。
- - **RuntimeError:** 指定了 `num_shards` 参数,但是未指定 `shard_id` 参数。
- - **RuntimeError:** 指定了 `shard_id` 参数,但是未指定 `num_shards` 参数。
- - **ValueError:** `shard_id` 参数错误(小于0或者大于等于 `num_shards` )。
-
- .. note:: 此数据集可以通过 `sampler` 指定任意采样器,但参数 `sampler` 和 `shuffle` 的行为是互斥的。下表展示了几种合法的输入参数及预期的行为。
-
- .. list-table:: 配置 `sampler` 和 `shuffle` 的不同组合得到的预期排序结果
- :widths: 25 25 50
- :header-rows: 1
-
- * - 参数 `sampler`
- - 参数 `shuffle`
- - 预期数据顺序
- * - None
- - None
- - 随机排列
- * - None
- - True
- - 随机排列
- * - None
- - False
- - 顺序排列
- * - 参数 `sampler`
- - None
- - 由 `sampler` 行为定义的顺序
- * - 参数 `sampler`
- - True
- - 不允许
- * - 参数 `sampler`
- - False
- - 不允许
-
- **样例:**
-
- >>> cifar10_dataset_dir = "/path/to/cifar10_dataset_directory"
- >>>
- >>> # 1) 按数据集文件的读取顺序,获取CIFAR-10数据集中的所有样本
- >>> dataset = ds.Cifar10Dataset(dataset_dir=cifar10_dataset_dir, shuffle=False)
- >>>
- >>> # 2) 从CIFAR10数据集中随机抽取350个样本
- >>> dataset = ds.Cifar10Dataset(dataset_dir=cifar10_dataset_dir, num_samples=350, shuffle=True)
- >>>
- >>> # 3) 对CIFAR10数据集进行分布式训练,并将数据集拆分为2个分片,当前数据集仅加载分片ID号为0的数据
- >>> dataset = ds.Cifar10Dataset(dataset_dir=cifar10_dataset_dir, num_shards=2, shard_id=0)
- >>>
- >>> # 提示:在CIFAR-10数据集生成的数据集对象中,每一次迭代得到的数据行都有"image"和"label"两个键
-
- **关于CIFAR-10数据集:**
-
- CIFAR-10数据集由10类60000张32x32彩色图片组成,每类6000张图片。有50000个训练样本和10000个测试样本。图片分为飞机、汽车、鸟类、猫、鹿、狗、青蛙、马、船和卡车这10类。
-
- 以下为原始CIFAR-10 数据集结构。您可以将数据集解压成如下的文件结构,并通过MindSpore的API进行读取。
-
- .. code-block::
-
- .
- └── cifar-10-batches-bin
- ├── data_batch_1.bin
- ├── data_batch_2.bin
- ├── data_batch_3.bin
- ├── data_batch_4.bin
- ├── data_batch_5.bin
- ├── test_batch.bin
- ├── readme.html
- └── batches.meta.text
-
- **引用:**
-
- .. code-block::
-
- @techreport{Krizhevsky09,
- author = {Alex Krizhevsky},
- title = {Learning multiple layers of features from tiny images},
- institution = {},
- year = {2009},
- howpublished = {http://www.cs.toronto.edu/~kriz/cifar.html}
- }
|