<i id='YOYO0'><tr id='YOYO0'><dt id='YOYO0'><q id='YOYO0'><span id='YOYO0'><b id='YOYO0'><form id='YOYO0'><ins id='YOYO0'></ins><ul id='YOYO0'></ul><sub id='YOYO0'></sub></form><legend id='YOYO0'></legend><bdo id='YOYO0'><pre id='YOYO0'><center id='YOYO0'></center></pre></bdo></b><th id='YOYO0'></th></span></q></dt></tr></i><div id='YOYO0'><tfoot id='YOYO0'></tfoot><dl id='YOYO0'><fieldset id='YOYO0'></fieldset></dl></div>

    <legend id='YOYO0'><style id='YOYO0'><dir id='YOYO0'><q id='YOYO0'></q></dir></style></legend><tfoot id='YOYO0'></tfoot>

    <small id='YOYO0'></small><noframes id='YOYO0'>

      <bdo id='YOYO0'></bdo><ul id='YOYO0'></ul>

      1. 在处理RAM中不能容纳的数据时,KERAS FIT_GENERATOR是不是最好的选择?

        Is Keras fit_generator the best thing to use when handling data that does not fit in RAM?(在处理RAM中不能容纳的数据时,KERAS FIT_GENERATOR是不是最好的选择?)

            1. <tfoot id='7BLpj'></tfoot><legend id='7BLpj'><style id='7BLpj'><dir id='7BLpj'><q id='7BLpj'></q></dir></style></legend>

            2. <small id='7BLpj'></small><noframes id='7BLpj'>

              <i id='7BLpj'><tr id='7BLpj'><dt id='7BLpj'><q id='7BLpj'><span id='7BLpj'><b id='7BLpj'><form id='7BLpj'><ins id='7BLpj'></ins><ul id='7BLpj'></ul><sub id='7BLpj'></sub></form><legend id='7BLpj'></legend><bdo id='7BLpj'><pre id='7BLpj'><center id='7BLpj'></center></pre></bdo></b><th id='7BLpj'></th></span></q></dt></tr></i><div id='7BLpj'><tfoot id='7BLpj'></tfoot><dl id='7BLpj'><fieldset id='7BLpj'></fieldset></dl></div>
                <tbody id='7BLpj'></tbody>
              • <bdo id='7BLpj'></bdo><ul id='7BLpj'></ul>
                  本文介绍了在处理RAM中不能容纳的数据时,KERAS FIT_GENERATOR是不是最好的选择?的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着跟版网的小编来一起学习吧!

                  问题描述

                  我正在构建一个可以对Knots进行分类的分类器。目前我有一个数据集,其中包含100,000张"解结"、100,000张"加三叶"和100,000张"负三叶"的图像。

                  在过去的40多天里,我一直在尝试让分类器处理这么大的数据集。到目前为止,我遇到的问题有:

                  1)数据集不适合CPU主内存:通过使用PyTables和Hdf5创建一些EArrays并将其追加到磁盘上,修复了此问题。现在我有一个1.2 GB的文件,它是数据集。

                  2)模型编译后,即使是Kera中一个非常简单的神经网络也达到了100%GPU(NVIDIA K80)内存使用率.甚至还没有符合模型。我读到这是因为Kera后端在编译时自动分配几乎100%的可用资源:我也修复了这个问题。

                  3)一旦修复了错误1和2,我仍然可以从Kera获得奇怪的精确度fit_generator()

                  问题:

                  1)我所描述的使用PyTables将小数目的数组合并为一个大的EArray的方法是制作非常大(300,000张图像128x128,总大小=1.2 GB)数据集的好方法吗?

                  2)在KERAS中是否应使用FIT生成器而不是train_on_batch?它们返回的最终丢失/准确度分数是否会有显著差异?

                  3)如果我想从hdf5文件中批量训练神经网络,并且在每个训练周期之后,将网络刚刚训练过的图像从主内存中删除,那么我的生成器方法有什么问题?

                  import tables
                  hdf5_path = "300K_Knot_data.hdf5"
                  extendable_hdf5_file = tables.open_file(hdf5_path, mode='r')
                  
                  def imageLoader(files, batch_size):
                  
                      L = len(files.root.train_data)
                  
                      #this line is just to make the generator infinite, keras needs that    
                      while True:
                  
                          batch_start = 0
                          batch_end = batch_size
                  
                          while batch_start < L:
                              limit = min(batch_end, L)
                              X = files.root.train_data[batch_start:limit]
                              X = np.reshape(X, (X.shape[0],128,128,3))
                              X = X/255
                              Y = files.root.train_label[batch_start:limit]
                  
                              yield (X,Y) #a tuple with two numpy arrays with batch_size samples     
                  
                              batch_start += batch_size   
                              batch_end += batch_size
                  
                  img_rows, img_cols = 128,128
                  ###################################
                  # TensorFlow wizardry
                  config = tf.ConfigProto()
                  
                  # Don't pre-allocate memory; allocate as-needed
                  config.gpu_options.allow_growth = True
                  
                  # Only allow a total of half the GPU memory to be allocated
                  config.gpu_options.per_process_gpu_memory_fraction = 0.5
                  
                  # Create a session with the above options specified.
                  K.tensorflow_backend.set_session(tf.Session(config=config))
                  ###################################
                  
                  model = Sequential()
                  model.add(Conv2D(64, (3,3), input_shape=(img_rows,img_cols,3)))
                  model.add(BatchNormalization())
                  model.add(Activation('relu'))
                  model.add(MaxPooling2D(pool_size=(2,2)))
                  
                  model.add(Conv2D(96, (3,3), padding='same'))
                  model.add(Activation('relu'))
                  model.add(MaxPooling2D(pool_size=(2,2)))
                  
                  model.add(Conv2D(128, (3,3)))
                  model.add(Activation('relu'))
                  model.add(MaxPooling2D(pool_size=(2,2)))
                  
                  
                  model.add(Flatten())
                  model.add(Dense(128))
                  model.add(Activation('relu'))
                  model.add(Dropout(0.5))
                  model.add(Dense(3))
                  model.add(Activation('softmax', name='preds'))
                  
                  
                  #lr was originally 0.01
                  
                  model.compile(loss='categorical_crossentropy',
                  optimizer=keras.optimizers.Adagrad(lr=0.01, epsilon=None, decay=0.0),metrics= 
                  ['accuracy'])
                  
                  # fits the model on batches with real-time data augmentation:
                  
                  model.fit_generator(imageLoader(extendable_hdf5_file, 50),
                                  steps_per_epoch=240000 / 50, epochs=50)
                  

                  以下是拟合模型的输出:

                  很抱歉,如果这里不是发布帖子的正确位置。 我的研究顾问不在城里,我花了相当多的时间试图解决这个问题,我只是需要一些意见,因为我在互联网上找不到足够的解决方案,或者似乎不能很好地理解我找到的足够好的东西来以一种好的方式实施它。我不是一个新程序员,但对python的经验相对较少。

                  推荐答案

                  我认为您定义生成器的方式很好。它似乎没有什么问题。不过,目前推荐使用Sequence class,特别是因为它在执行多处理时要安全得多。但是,使用生成器是可以的,并且仍然大量使用。

                  关于奇怪的准确率数字,您提到3000步的准确率是100%,然后下降到33%。我有以下建议来诊断此问题:

                  1)将学习速率降低到例如3e-31e-31-e4。我建议使用AdagradRMSpropAdam这样的自适应优化器。我建议RMSprop使用默认参数;先不要更改任何参数,而是尝试一下,并根据您得到的反馈进行更改(如果损失减少得非常慢,则稍微提高学习率;如果增加或稳定,则降低学习率,尽管这些不是明确的规则。您必须进行实验并考虑验证损失)。使用自适应优化器可以减少使用ReduceLearningRateOnPlateu这样的回调的需要(至少在您有充分的理由使用它之前是不需要的)。

                  2)如果可能,将整个数据分成训练/验证/测试集(或至少训练/验证)。最常用的比例是60/20/20或70/15/15。但要确保这三个集合中的每一个类都是相等的(即,每个集合中的"解结"、"加三叶"和"减三叶"的数量大致相同)。请注意,它们的分布也应该大致相同。例如,您不应该为验证和测试集选择容易的。通常,在对整个数据进行混洗之后进行选择(即确保它们没有任何特定的顺序)是可行的。创建验证集可帮助您确保在培训过程中看到的进度是真实的,并且模型不会与培训数据过度匹配。

                  您需要为验证定义一个新的生成器,并以与处理训练数据相同的方式传递验证数据(即加载包含验证数据的文件)。然后为fit_generator方法的validation_datavalidation_steps参数设置适当的值。

                  3)在激活之前或之后使用批归一化是still debatable。不过,some people claim如果你把它放在激活之后或者正好放在下一层之前,效果会更好。您也可以试用此功能。

                  4)如果您没有将GPU用于任何其他用途,请使用其全部容量(即不限制其RAM使用)。并且使用是2的幂的批次大小(即64、128、256等)。因为它有助于GPU内存分配,并且可能会加快它的速度。考虑到您拥有的样本数量,128或256似乎是不错的选择。

                  5)如果一个纪元的培训需要很长时间,请考虑使用ModelCheckpointEarlyStopping回调。

                  这篇关于在处理RAM中不能容纳的数据时,KERAS FIT_GENERATOR是不是最好的选择?的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持跟版网!

                  本站部分内容来源互联网,如果有图片或者内容侵犯了您的权益,请联系我们,我们会在确认后第一时间进行删除!

                  相关文档推荐

                  groupby multiple coords along a single dimension in xarray(在xarray中按单个维度的多个坐标分组)
                  Group by and Sum in Pandas without losing columns(Pandas中的GROUP BY AND SUM不丢失列)
                  Group by + New Column + Grab value former row based on conditionals(GROUP BY+新列+基于条件的前一行抓取值)
                  Groupby and interpolate in Pandas(PANDA中的Groupby算法和插值算法)
                  Pandas - Group Rows based on a column and replace NaN with non-null values(PANAS-基于列对行进行分组,并将NaN替换为非空值)
                  Grouping pandas DataFrame by 10 minute intervals(按10分钟间隔对 pandas 数据帧进行分组)

                      <i id='sz86O'><tr id='sz86O'><dt id='sz86O'><q id='sz86O'><span id='sz86O'><b id='sz86O'><form id='sz86O'><ins id='sz86O'></ins><ul id='sz86O'></ul><sub id='sz86O'></sub></form><legend id='sz86O'></legend><bdo id='sz86O'><pre id='sz86O'><center id='sz86O'></center></pre></bdo></b><th id='sz86O'></th></span></q></dt></tr></i><div id='sz86O'><tfoot id='sz86O'></tfoot><dl id='sz86O'><fieldset id='sz86O'></fieldset></dl></div>

                          <bdo id='sz86O'></bdo><ul id='sz86O'></ul>
                            <tbody id='sz86O'></tbody>
                          <tfoot id='sz86O'></tfoot>
                        • <legend id='sz86O'><style id='sz86O'><dir id='sz86O'><q id='sz86O'></q></dir></style></legend>

                          <small id='sz86O'></small><noframes id='sz86O'>