Как объединить другие данные с данными изображения в сети свертки - PullRequest
0 голосов
/ 03 ноября 2019

Я пытаюсь использовать tflearn и tenorflow для получения меньших серых изображений и генерирования больших RGB-изображений, по одному фрагменту за раз, из 60 на 60 фрагментов.

Я думал, что смогу сделать это, передав полное уменьшенное изображение вместе с положением x, y фрагмента на конечном изображении, на котором я хочу обучить его. Я собирался объединить данные о местоположении после запуска меньшего изображения через пару слоев свертки, как это:

import tflearn as tf

imgConvnet = tf.input_data(shape = [None, 500, 500, 1])
location = tf.input_data(shape = [None, 2])
imgConvnet = tf.conv_2d(imgConvnet, 32, 2, activation='relu')
imgConvnet = tf.conv_2d(imgConvnet, 32, 2, activation='relu')
imgConvnet = tf.fully_connected(imgConvnet,1000)
imgConvnet = tf.merge([imgConvnet,location],'concat')
imgConvnet = tf.fully_connected(imgConvnet,2000)
imgConvnet = tf.fully_connected(imgConvnet,3600)
imgConvnet = tf.regression(imgConvnet)

Но проблема в том, что использование merge в tflearn, очевидно, работает, только если два массива являютсятот же размер. Я, очевидно, не хочу сводить данные моего изображения к двум значениям, и я не уверен в том, чтобы пытаться взорвать данные о местоположении так сильно или даже как бы я поступил так.

Есть ли способ добавить небольшое количество данных без изображения в сверточную сеть в тензорном потоке?

В будущем я также хотел бы добавить несколько слов описания вместе с местоположением.

Большое спасибо

...