MindSpore专题——第四章、数据集
数据集
继续第二章中的Mnist数据库为例,介绍使用mindspore.dataset进行加载的方法。
详情请见MNIST数据官方网站:MNIST handwritten digit database, Yann LeCun, Corinna Cortes and Chris Burges
下面是简略介绍
数据集 | MNIST中的文件名 | 下载地址 | 文件大小 |
---|---|---|---|
训练集图像 | train-images-idx3-ubyte.gz | http://yann.lecun.com/exdb/mnist/train-images-idx3-ubyte.gz | 9912422字节 |
训练集标签 | train-labels-idx1-ubyte.gz | http://yann.lecun.com/exdb/mnist/train-labels-idx1-ubyte.gz | 28881字节 |
测试集图像 | t10k-images-idx3-ubyte.gz | http://yann.lecun.com/exdb/mnist/t10k-images-idx3-ubyte.gz | 1648877字节 |
测试集标签 | t10k-labels-idx1-ubyte.gz | http://yann.lecun.com/exdb/mnist/t10k-labels-idx1-ubyte.gz | 4542字节 |
数据库加载
请注意:mindspore.dataset的接口仅支持解压后的数据文件
1 | train_dataset = MnistDataset("MNIST_Data/train", shuffle=False) |
<class 'mindspore.dataset.engine.datasets_vision.MnistDataset'>
数据库迭代
数据集加载后,一般以迭代方式获取数据,然后送入神经网络中进行训练。我们可以用create_tuple_iterator或create_dict_iterator接口创建数据迭代器,迭代访问数据。访问的数据类型默认为Tensor
;若设置output_numpy=True
,访问的数据类型为Numpy
。
下面定义一个可视化函数,迭代9张图片进行展示。
1 | def visualize(dataset): |
在for idx, (image, label) in enumerate(dataset.create_tuple_iterator()):
此处的循环中枚举了训练集的前9个图像enumerate()
函数用于将一个可遍历的数据对象(如列表、元组或字符串)组合为一个索引序列,同时列出数据和数据下标,一般用在
for 循环当中。
在循环体中使用了plt类画图。

数据集常用操作
Pipeline的设计理念使得数据集的常用操作采用dataset = dataset.operation()
的异步执行方式,执行操作返回新的Dataset,此时不执行具体操作,而是在Pipeline中加入节点,最终进行迭代时,并行执行整个Pipeline。
下面分别介绍几种常见的数据集操作。
shuffle
数据集随机shuffle
可以消除数据排列造成的分布不均问题

mindspore.dataset
提供的数据集在加载时可配置shuffle=True
,或使用如下操作
1 | train_dataset = train_dataset.shuffle(buffer_size=64) |

map
map
操作是数据预处理的关键操作,可以针对数据集指定列(column)添加数据变换(Transforms),将数据变换应用于该列数据的每个元素,并返回包含变换后元素的新数据集。
1 | image, label = next(train_dataset.create_tuple_iterator()) |
1
2
3
4 map前:
(28, 28, 1) UInt8
map后:
(28, 28, 1) Float32
batch
将数据集打包为固定大小的batch
是在有限硬件资源下使用梯度下降进行模型优化的折中方法,可以保证梯度下降的随机性和优化计算量。分块思想
一般我们会设置一个固定的batch size,将连续的数据分为若干批(batch)。
1 | # 一般设定固定batchSize |
(32, 28, 28, 1) Float32
自定义数据集
mindspore.dataset
模块提供了一些常用的公开数据集和标准格式数据集的加载API。
对于MindSpore暂不支持直接加载的数据集,可以构造自定义数据加载类或自定义数据集生成函数的方式来生成数据集,然后通过GeneratorDataset
接口实现自定义方式的数据集加载。
GeneratorDataset
支持通过可随机访问数据集对象、可迭代数据集对象和生成器(generator)构造自定义数据集,下面分别对其进行介绍。
可随机访问数据集
可随机访问数据集是实现了__getitem__
和__len__
方法的数据集,表示可以通过索引/键直接访问对应位置的数据样本。
- 实现了
__init__
,__getitem__
和__len__
- 当使用
dataset[idx]
访问这样的数据集时,可以读取dataset内容中第idx个样本或标签
1 | # Random-accessible object as input source |
[Tensor(shape=[2], dtype=Float64, value= [ 1.00000000e+00, 1.00000000e+00]), Tensor(shape=[1], dtype=Float64, value= [ 0.00000000e+00])] [Tensor(shape=[2], dtype=Float64, value= [ 1.00000000e+00, 1.00000000e+00]), Tensor(shape=[1], dtype=Float64, value= [ 0.00000000e+00])] [Tensor(shape=[2], dtype=Float64, value= [ 1.00000000e+00, 1.00000000e+00]), Tensor(shape=[1], dtype=Float64, value= [ 0.00000000e+00])] [Tensor(shape=[2], dtype=Float64, value= [ 1.00000000e+00, 1.00000000e+00]), Tensor(shape=[1], dtype=Float64, value= [ 0.00000000e+00])] [Tensor(shape=[2], dtype=Float64, value= [ 1.00000000e+00, 1.00000000e+00]), Tensor(shape=[1], dtype=Float64, value= [ 0.00000000e+00])]
创建的过程非常简单,通过numpy的数据结构为底层,实现三个方法就好了,更简单的直接使用list,tuple也是可行的。
可迭代数据集
可迭代的数据集是实现了__iter__
和__next__
方法的数据集,表示可以通过迭代的方式逐步获取数据样本。这种类型的数据集特别适用于随机访问成本太高或者不可行的情况。
例如,当使用iter(dataset)
的形式访问数据集时,可以读取从数据库、远程服务器返回的数据流。
下面构造一个简单迭代器,并将其加载至GeneratorDataset
。
1 | # Iterator as input source |
[Tensor(shape=[], dtype=Int32, value= 1)] [Tensor(shape=[], dtype=Int32, value= 2)] [Tensor(shape=[], dtype=Int32, value= 3)] [Tensor(shape=[], dtype=Int32, value= 4)]
同样的,实现方法即可
生成器
生成器也属于可迭代的数据集类型,其直接依赖Python的生成器类型generator
返回数据,直至生成器抛出StopIteration
异常。
下面构造一个生成器,并将其加载至GeneratorDataset
。
1 | # Generator |
[Tensor(shape=[], dtype=Int32, value= 3)] [Tensor(shape=[], dtype=Int32, value= 4)] [Tensor(shape=[], dtype=Int32, value= 5)]
这个更绝,仅用一个函数即可生成。(此处匿不匿名无关紧要)
常见问题
- 找不到模块 matplotlib
1 | pip install matplotlib |