Регрессия на изображение для прогнозирования скаляра - PullRequest
0 голосов
/ 23 мая 2019

Учитывая входные изображения 256x256 RGB, я пытаюсь регрессировать, чтобы предсказать точку на оси X изображения (0-48000)

Изначально я попытался [mobile_net -> GlobalAveragePooling2D -> несколько плотных слоев]. Я не знал, что Pooling отбрасывает пространственную информацию.

Прошлой ночью я тренировался в более простой сети, потери снижались всю ночь, но предсказывают отрицательные значения.

Как я могу изменить эту архитектуру для прогнозирования скаляра 0-48000?

    model = tf.keras.Sequential([
    tf.keras.layers.Conv2D(64, kernel_size=3, activation='relu', input_shape=(256,256,3)),
    tf.keras.layers.Dropout(0.5),      
    tf.keras.layers.Conv2D(32, kernel_size=3, activation='relu'),
    tf.keras.layers.Flatten(),
    tf.keras.layers.Dense(1,   kernel_initializer='normal'),
])
model.compile(loss='mse', optimizer='adam', metrics=['mse', 'mae', 'mape']) #

EDIT :

Исходя из моей сетевой работы, я получаю совершенно разные результаты при каждом запуске для ТОГО ЖЕ файла. Как это возможно?

Вывести выходные данные, запущенные несколько раз для одного и того же файла:

-312864.9444580078
762.7029418945312
193352.7603149414

Вот вывод fn:

def infer(checkpoint_path):
    png_file  = ['3023_28338_26_m.png', '3023_28338_26_m.png'][1]
    test_file = data_root + png_file
    onset     = png_file.strip('_m.png.').split('_')[1]
    img       = load_and_preprocess_from_path_label(test_file, 0)
    tst       = np.expand_dims(img[0], axis=0)
    model     = load_model_and_checkpoint(checkpoint_path)
    val       = model.predict(tst)[0][0] * 48000

Вот последняя эпоха обучения.

2019-05-26 11:11:56.698907: I tensorflow/core/kernels/data/shuffle_dataset_op.cc:150] Shuffle buffer filled.
94/95 [============================>.] - ETA: 0s - loss: 0.0063 - mse: 0.0063 - mae: 0.0627 - mape: 93.2817   
Epoch 00100: saving model to /media/caseybasichis/sp_data/sp_data/datasets/one_sec_onset_01/model7.ckpt
95/95 [==============================] - 47s 500ms/step - loss: 0.0063 - mse: 0.0063 - mae: 0.0626 - mape: 93.2076

Вот последняя сеть.

mobile_net = tf.keras.applications.ResNet50(input_shape=(256, 256, 3), include_top=False, weights='imagenet')
mobile_net.trainable=False

model = tf.keras.Sequential([
    mobile_net,
    tf.keras.layers.Dropout(0.25),  
    tf.keras.layers.Flatten(),
    tf.keras.layers.Dense(512, kernel_initializer='normal', activation='relu'),
    tf.keras.layers.BatchNormalization(axis=chanDim),
    tf.keras.layers.Dropout(0.5),
    tf.keras.layers.Dense(1,  kernel_initializer='normal', activation='linear'), # activation='sigmoid'
])
model.compile(loss='mse', optimizer='adam', metrics=['mse', 'mae', 'mape']) # mean_squared_logarithmic_error

1 Ответ

2 голосов
/ 24 мая 2019

Вы можете просто использовать активацию Sigmoid на последнем слое и умножить выход на масштаб (в лямбда-слое или, предпочтительно, просто масштабировать выход вне сети)

model.add(Activation('sigmoid'))
model.add(Lambda(lambda x: 48000*x))

или

model.add(Activation('sigmoid'))
...
model.fit(x_train, y_train/48000.0)
...