У меня относительно маленький CNN
model = tf.keras.models.Sequential([
tf.keras.layers.Conv2D(input_shape=(400,400,3), filters=6, kernel_size=5, padding='same', activation='relu'),
tf.keras.layers.Conv2D(filters=12, kernel_size=3, padding='same', activation='relu'),
tf.keras.layers.Conv2D(filters=24, kernel_size=3, strides=2, padding='valid', activation='relu'),
tf.keras.layers.Conv2D(filters=32, kernel_size=3, strides=2, padding='valid', activation='relu'),
tf.keras.layers.Conv2D(filters=48, kernel_size=3, strides=2, padding='valid', activation='relu'),
tf.keras.layers.Conv2D(filters=64, kernel_size=3, strides=2, padding='valid', activation='relu'),
tf.keras.layers.Conv2D(filters=96, kernel_size=3, strides=2, padding='valid', activation='relu'),
tf.keras.layers.Conv2D(filters=128, kernel_size=3, strides=2, padding='valid', activation='relu'),
tf.keras.layers.Flatten(),
tf.keras.layers.Dense(256, activation='relu'),
tf.keras.layers.Dense(256, activation='relu'),
tf.keras.layers.Dense(256, activation='relu'),
tf.keras.layers.Dense(240, activation='softmax')
])
model.compile(optimizer='adam', loss='categorical_crossentropy')
Я использую следующий код для измерения производительности модели:
for img_per_batch in [1, 5, 10, 50]:
# warm up the model
image = np.random.random(size=(img_per_batch, 400, 400, 3)).astype('float32')
model(image, training=False)
n_iter = 100
start_time = time.time()
for _ in range(n_iter):
image = np.random.random(size=(img_per_batch, 400, 400, 3)).astype('float32')
model(image, training=False)
dt = (time.time() - start_time) * 1000
print(f'img_per_batch = {img_per_batch}, {dt/n_iter:.2f} ms per iteration, {dt/n_iter/img_per_batch:.2f} ms per image')
Мой вывод (Nvidia Jetson Xavier, tenenflow == 2.0.0) :
img_per_batch = 1, 21.74 ms per iteration, 21.74 ms per image
img_per_batch = 5, 42.35 ms per iteration, 8.47 ms per image
img_per_batch = 10, 68.37 ms per iteration, 6.84 ms per image
img_per_batch = 50, 312.83 ms per iteration, 6.26 ms per image
Затем я добавляю выпадающий слой после каждого из полностью подключенных слоев:
model = tf.keras.models.Sequential([
# ... convolution layers are same
tf.keras.layers.Flatten(),
tf.keras.layers.Dense(256, activation='relu'),
tf.keras.layers.Dropout(.3),
tf.keras.layers.Dense(256, activation='relu'),
tf.keras.layers.Dropout(.3),
tf.keras.layers.Dense(256, activation='relu'),
tf.keras.layers.Dropout(.3),
tf.keras.layers.Dense(240, activation='softmax')
])
С добавленными слоями вывод будет следующим:
img_per_batch = 1, 31.18 ms per iteration, 31.18 ms per image
img_per_batch = 5, 76.15 ms per iteration, 15.23 ms per image
img_per_batch = 10, 127.91 ms per iteration, 12.79 ms per image
img_per_batch = 50, 513.85 ms per iteration, 10.28 ms per image
В Теория отсева слоя не должна влиять на производительность вывода. Но в приведенном выше коде добавление выпадающего слоя увеличивает время прогнозирования для одного изображения в 1,5 раза, а пакетное прогнозирование для 10 изображений почти в два раза медленнее, чем без отсева. Я что-то не так делаю?