VGG16 тренируется намного дольше, чем ожидалось - PullRequest
0 голосов
/ 13 июня 2019

Используя трансферное обучение, я пытаюсь обучить VGG16 в Керасе, используя Google Colab.Ниже приведен код из записной книжки: (примечание: выходные данные записываются в виде комментариев)

    from keras import Sequential
    from keras.layers import Dense, Flatten
    from keras.applications import vgg16
    from keras.applications.vgg16 import preprocess_input as vgg_pi
    from keras.preprocessing.image import ImageDataGenerator
    from keras.models import Model

    base_model = vgg16.VGG16(include_top=False, weights='imagenet',
                             input_shape=(224, 224, 3))
    for layer in base_model.layers:
      layer.trainable = False
    base_model.summary()

    # Total params: 14,714,688
    # Trainable params: 0
    # Non-trainable params: 14,714,688

    x = base_model.output
    x = Flatten(name='flatten', input_shape=base_model.output_shape)(x) 
    x = Dense(10, activation='softmax', name='predictions')(x)
    model = Model(inputs=base_model.input, outputs=x)
    model.summary()

    # Total params: 14,965,578
    # Trainable params: 250,890
    # Non-trainable params: 14,714,688

    model.compile(optimizer='adam', 
                  loss='categorical_crossentropy',
                  metrics=['accuracy'])


    train_datagen = ImageDataGenerator(
        rescale=1./255,
        rotation_range=40,
        width_shift_range=0.2,
        height_shift_range=0.2,
        shear_range=0.2,
        zoom_range=0.2,
        fill_mode='nearest',
    )
    validation_datagen = ImageDataGenerator(
        rescale=1./255,
    )

    train_generator = train_datagen.flow_from_directory(
            '/content/drive/My Drive/Colab Notebooks/domat/solo-dataset/train/', 
            target_size=(224, 224),
            batch_size=32,
            class_mode='categorical',
    )
    validation_generator = validation_datagen.flow_from_directory(
            '/content/drive/My Drive/Colab Notebooks/domat/solo-dataset/validation/',
            target_size=(224, 224),
            batch_size=32,
            class_mode='categorical',
    )

    # Found 11614 images belonging to 10 classes.
    # Found 2884 images belonging to 10 classes.

    # check if GPU is running
    import tensorflow as tf
    device_name = tf.test.gpu_device_name()
    if device_name != '/device:GPU:0':
      raise SystemError('GPU device not found')
    print('Found GPU at: {}'.format(device_name))

    # Found GPU at: /device:GPU:0

    t_steps = 11614 // 32
    v_steps = 2884 // 32
    history = model.fit_generator(train_generator, 
                                  epochs=500, 
                                  steps_per_epoch=t_steps, 
                                  validation_data=validation_generator,
                                  validation_steps=v_steps,
                                 )

    # Epoch 1/500
    #   8/362 [..............................] - ETA: 41:02 - loss: 2.9058 - acc: 0.2383

Так что, по какой-то причине, это занимает около 40 минут в течение одной эпохи, и я действительно не понимаюпочему это так медленно.
Раньше я играл с разными параметрами (добавляя более полностью связанные слои), и каждая эпоха заканчивалась примерно через 3 минуты, хотя это было явно переобучением, так как были свободные параметры 14 мил, инабор данных намного меньше.

Кто-нибудь знает, как к этому подойти?Я пробовал как миллион вещей, и это просто слишком медленно.Мне даже не удалось вернуться к исходной конфигурации, чтобы увидеть, что я делал ранее, так что каждая эпоха заканчивается за 3 минуты.

1 Ответ

0 голосов
/ 13 июня 2019

с использованием настройки colab для установки режима графического процессора для вашей среды.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...