You can not select more than 25 topics Topics must start with a chinese character,a letter or number, can include dashes ('-') and can be up to 35 characters long.

mindspore.dataset.CocoDataset.rst 7.9 kB

4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134
  1. mindspore.dataset.CocoDataset
  2. ==============================
  3. .. py:class:: mindspore.dataset.CocoDataset(dataset_dir, annotation_file, task='Detection', num_samples=None, num_parallel_workers=None, shuffle=None, decode=False, sampler=None, num_shards=None, shard_id=None, cache=None, extra_metadata=False)
  4. 读取和解析COCO数据集的源文件构建数据集。该API支持解析COCO2017数据集,支持四种类型的机器学习任务,分别是目标检测、关键点检测、物体分割和全景分割。
  5. **参数:**
  6. - **dataset_dir** (str) - 包含数据集文件的根目录路径。
  7. - **annotation_file** (str) - 数据集标注JSON文件的路径。
  8. - **task** (str, 可选) - 指定COCO数据的任务类型。支持的任务类型包括:'Detection'、'Stuff' 、'Panoptic'和'Keypoint'。默认值:'Detection'。
  9. - **num_samples** (int, 可选) - 指定从数据集中读取的样本数,可以小于数据集总数。默认值:None,全部样本图片。
  10. - **num_parallel_workers** (int, 可选) - 指定读取数据的工作线程数,默认值:使用mindspore.dataset.config中配置的线程数。
  11. - **shuffle** (bool, 可选) - 是否混洗数据集。默认值:None,下表中会展示不同参数配置的预期行为。
  12. - **decode** (bool, 可选) - 是否对读取的图片进行解码操作,默认值:False,不解码。
  13. - **sampler** (Sampler, 可选) - 指定从数据集中选取样本的采样器,默认值:None,下表中会展示不同配置的预期行为。
  14. - **num_shards** (int, 可选) - 指定分布式训练时将数据集进行划分的分片数,默认值:None。指定此参数后, `num_samples` 表示每个分片的最大样本数。
  15. - **shard_id** (int, 可选) - 指定分布式训练时使用的分片ID号,默认值:None。只有当指定了 `num_shards` 时才能指定此参数。
  16. - **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读 `单节点数据缓存 <https://www.mindspore.cn/docs/programming_guide/zh-CN/master/cache.html>`_ 。默认值:None,不使用缓存。
  17. - **extra_metadata** (bool, 可选) - 用于指定是否额外输出一个数据列用于表示图片元信息。如果为True,则将额外输出一个名为 `[_meta-filename, dtype=string]` 的数据列,默认值:False。
  18. 根据不同 `task` 参数设置,生成数据集具有不同的输出列:
  19. - `task` = 'Detection', 输出列: `[image, dtype=uint8]` , `[bbox, dtype=float32]` , `[category_id, dtype=uint32]` , `[iscrowd, dtype=uint32]` 。
  20. - `task` = 'Stuff', 输出列: `[image, dtype=uint8]` , `[segmentation,dtype=float32]` , `[iscrowd,dtype=uint32]` 。
  21. - `task` = 'Keypoint', 输出列: `[image, dtype=uint8]` , `[keypoints, dtype=float32]` , `[num_keypoints, dtype=uint32]` 。
  22. - `task` = 'Panoptic', 输出列: `[image, dtype=uint8]` , `[bbox, dtype=float32]` , `[category_id, dtype=uint32]` , `[iscrowd, dtype=uint32]` , `[area, dtype=uint32]` 。
  23. **异常:**
  24. - **RuntimeError** - `dataset_dir` 路径下不包含任何数据文件。
  25. - **RuntimeError** - `num_parallel_workers` 参数超过系统最大线程数。
  26. - **RuntimeError** - 同时指定了 `sampler` 和 `shuffle` 参数。
  27. - **RuntimeError** - 同时指定了 `sampler` 和 `num_shards` 参数。
  28. - **RuntimeError** - 指定了 `num_shards` 参数,但是未指定 `shard_id` 参数。
  29. - **RuntimeError** - 指定了 `shard_id` 参数,但是未指定 `num_shards` 参数。
  30. - **RuntimeError** - 解析 `annotation_file` 指定的JSON文件失败。
  31. - **ValueError** - `task` 参数取值不为 `Detection` 、 `Stuff` 、`Panoptic` 或 `Keypoint` 。
  32. - **ValueError** - `annotation_file` 参数对应的文件不存在。
  33. - **ValueError** - `dataset_dir` 参数路径不存在。
  34. - **ValueError** - `shard_id` 参数值错误(小于0或者大于等于 `num_shards` )。
  35. .. note::
  36. - 当参数 `extra_metadata` 为True时,还需使用 `rename` 操作删除额外数据列'_meta-filename'的前缀'_meta-',
  37. 否则迭代得到的数据行中不会出现此额外数据列。
  38. - CocoDataset的 `sampler` 参数不支持指定PKSampler。
  39. - 此数据集可以指定参数 `sampler` ,但参数 `sampler` 和参数 `shuffle` 的行为是互斥的。下表展示了几种合法的输入参数组合及预期的行为。
  40. .. list-table:: 配置 `sampler` 和 `shuffle` 的不同组合得到的预期排序结果
  41. :widths: 25 25 50
  42. :header-rows: 1
  43. * - 参数 `sampler`
  44. - 参数 `shuffle`
  45. - 预期数据顺序
  46. * - None
  47. - None
  48. - 随机排列
  49. * - None
  50. - True
  51. - 随机排列
  52. * - None
  53. - False
  54. - 顺序排列
  55. * - `sampler` 实例
  56. - None
  57. - 由 `sampler` 行为定义的顺序
  58. * - `sampler` 实例
  59. - True
  60. - 不允许
  61. * - `sampler` 实例
  62. - False
  63. - 不允许
  64. **关于COCO数据集:**
  65. Microsoft Common Objects in Context(COCO)是一个大型数据集,该数据集专门为目标检测,语义分割和字幕生成任务而设计。它拥有330K张图像(标记数量大于200K个)、1500000个目标实例、80个目标类别、91个对象类别、每张图片均有5个字幕、带关键点标注的人有250000个。与流行的ImageNet数据集相比,COCO的类别较少,但每个类别中的图片样本非常多。
  66. 您可以解压缩原始COCO-2017数据集文件得到如下目录结构,并通过MindSpore的API读取。
  67. .. code-block::
  68. .
  69. └── coco_dataset_directory
  70. ├── train2017
  71. │ ├── 000000000009.jpg
  72. │ ├── 000000000025.jpg
  73. │ ├── ...
  74. ├── test2017
  75. │ ├── 000000000001.jpg
  76. │ ├── 000000058136.jpg
  77. │ ├── ...
  78. ├── val2017
  79. │ ├── 000000000139.jpg
  80. │ ├── 000000057027.jpg
  81. │ ├── ...
  82. └── annotation
  83. ├── captions_train2017.json
  84. ├── captions_val2017.json
  85. ├── instances_train2017.json
  86. ├── instances_val2017.json
  87. ├── person_keypoints_train2017.json
  88. └── person_keypoints_val2017.json
  89. **引用:**
  90. .. code-block::
  91. @article{DBLP:journals/corr/LinMBHPRDZ14,
  92. author = {Tsung{-}Yi Lin and Michael Maire and Serge J. Belongie and
  93. Lubomir D. Bourdev and Ross B. Girshick and James Hays and
  94. Pietro Perona and Deva Ramanan and Piotr Doll{\'{a}}r and C. Lawrence Zitnick},
  95. title = {Microsoft {COCO:} Common Objects in Context},
  96. journal = {CoRR},
  97. volume = {abs/1405.0312},
  98. year = {2014},
  99. url = {http://arxiv.org/abs/1405.0312},
  100. archivePrefix = {arXiv},
  101. eprint = {1405.0312},
  102. timestamp = {Mon, 13 Aug 2018 16:48:13 +0200},
  103. biburl = {https://dblp.org/rec/journals/corr/LinMBHPRDZ14.bib},
  104. bibsource = {dblp computer science bibliography, https://dblp.org}
  105. }
  106. .. include:: mindspore.dataset.Dataset.add_sampler.rst
  107. .. include:: mindspore.dataset.Dataset.rst
  108. .. include:: mindspore.dataset.Dataset.d.rst
  109. .. include:: mindspore.dataset.Dataset.use_sampler.rst
  110. .. include:: mindspore.dataset.Dataset.zip.rst