Элемент не является частью графика при использовании VGG для генерации данных и расчета потерь - PullRequest
1 голос
/ 10 мая 2019

У меня есть кодировщик VGG19, который получает входное изображение y из (256,256,3) и возвращает тензор измерения (32,32, 512) из слоя conv-4-1 vgg.Мне нужно превратить его в массив, чтобы применить некоторые преобразования и восстановить изображение с помощью моего декодера.

Короче, я пытаюсь обучить сеть декодеров следующим образом:

x = vgg_encoder(y)  # generate features from image y
x = do_extra_transformation(x) # for example, reshape and apply K means to shift features towards their cluster centres
y_pred = decoder(x) # try to reconstruct the image y from features
loss = calculate_loss(y, y_pred) # calculate reconstruction loss using VGG loss

Однако, когда я запускаю код, я получаю сообщение об ошибке: ValueError: Tensor Tensor("block4_conv1/Relu:0", shape=(?, 32, 32, 512), dtype=float32) is not an element of this graph.

Я предполагаю, что ошибка возникает из-за пересоединения tenorflow графика после того, как я вызываю предикат в VGG для генерации функций.Я не понимаю, почему это проблема, поскольку технически она используется только для генерации данных и не является частью графика вычислений для обучения!


Полный код, который вы можете запустить с python example.py ниже

import tensorflow as tf
import numpy as np 
from tensorflow.keras.applications import VGG19
from tensorflow.keras.layers import Input, UpSampling2D, Conv2D
from tensorflow.keras.models import Model
import tensorflow.keras.backend as K
from tensorflow.keras.optimizers import Adam

class CustomModel:

    def __init__(self, im_h, im_w, im_c):
        self.im_shape = (im_h, im_w, im_c)
        self.vgg_features_shape = (None, None, 512)
        self.vgg_loss_model = self.build_vgg_loss()
        self.kernel_size = (3,3)
        self.decoder = self.build_decoder()


    def build_vgg_loss(self):
        vgg = VGG19(weights="imagenet", include_top=False, input_shape=self.im_shape)
        vgg.outputs = vgg.get_layer('block4_conv1').output
        model = Model(inputs=vgg.inputs, outputs=vgg.outputs)
        model.trainable = False

        return model

    def build_decoder(self):
        """
        Mirrors the VGG network with max-pooling layers replaces by UpScaling Layers
        """

        i = Input((None, None, 512))
        x = Conv2D(filters=512, kernel_size=self.kernel_size, padding='same')(i)

        x = UpSampling2D()(x)
        for _ in range(4):
            x = Conv2D(filters=256, kernel_size=self.kernel_size, padding='same')(x)

        x = UpSampling2D()(x)
        for _ in range(2):
            x = Conv2D(filters=128, kernel_size=self.kernel_size, padding='same')(x)

        x = UpSampling2D()(x)
        for _ in range(2):
            x = Conv2D(filters=64, kernel_size=self.kernel_size, padding='same')(x)

        x = Conv2D(filters=3, kernel_size=self.kernel_size, padding='same')(x)

        model = Model(inputs=i, outputs=x)

        return model


    def get_loss(self, y_pred, y):

        vgg_model = self.vgg_loss_model

        def content_loss(y_pred, y):

            dif = vgg_model(y) - vgg_model(y_pred)
            sq = K.square(dif)
            s = K.sum(sq, axis=-1)
            sqrt = K.sqrt(s)
            loss = K.sum(sqrt)

            return loss

        return content_loss(y_pred, y)


class DataLoader:

    def __init__(self, vgg):
        self.vgg = vgg

    def gen(self):
        while True:
            y = np.random.randn(256, 256,3)
            x = self.vgg.predict(np.expand_dims(y, 0)).reshape((32,32,512)) # if this is turned into a np.array, everything works as expected
            yield x, np.random.randn(256, 256,3) 


model = CustomModel(256,256,3)

# dl = DataLoader(datapath='./trainer/data/', mst=mst)

output_types=(
    tf.float32,
    tf.float32
 )
output_shapes=(
    tf.TensorShape([None, None, None]),
    tf.TensorShape([None, None, None])
)

ds = tf.data.Dataset.from_generator(DataLoader(model.vgg_loss_model).gen,
                                   output_types=output_types, 
                                   output_shapes=output_shapes)

ds = ds.repeat().batch(1)
iterator = ds.make_one_shot_iterator()
x, y = iterator.get_next()
y_pred = model.decoder(x)


loss = model.get_loss(y_pred, y)
opt = tf.train.AdamOptimizer(0.01)
train_opt = opt.minimize(loss)

init_op = tf.global_variables_initializer()

with tf.Session() as sess:

    sess.run(init_op)
    opt = tf.train.GradientDescentOptimizer(0.01)
    for i in range(5):
        sess.run(train_opt)

Ответы [ 2 ]

0 голосов
/ 17 мая 2019

Вы можете проверить похожий вопрос: https://stackoverflow.com/a/56178638/7454706

Создать одну дополнительную функцию

def load_model():
    global model
    model = yourmodel(weights=xx111122)
        # this is key : save the graph after loading the model
    global graph
    graph = tf.get_default_graph()

Затем, прежде чем прогнозировать:

with graph.as_default():
   preds = model.predict(image)
   #... etc

Есть обсуждение наэта проблема: https://github.com/tensorflow/tensorflow/issues/14356 Я думаю, что это проблема с ops.py at:

   3034     with self._lock:
-> 3035       return self._as_graph_element_locked(obj, allow_tensor, allow_operation)
   3036 

Если вы можете указать ошибку для всего кода, ее будет проще устранить.

0 голосов
/ 12 мая 2019

Не забывайте, что ввод задания, которое вы описали, является изображением, а вывод - тоже изображением.Следовательно, модель, которую вы строите, должна содержать все части, т.е. кодер + декодер .Конечно, вы можете не обучать ни одного из них (как вы решили не обучать кодировщик).Итак, вот изменения, которые вы должны применить:

Следующее неверно, потому что y и y_pred - это истинные и прогнозируемые результаты декодера , поэтому это не имеет смыслачтобы применить к ним vgg_model (т.е. кодировщик):

dif = vgg_model(y) - vgg_model(y_pred)

Вы просто хотите сравнить восстановленное изображение с исходным изображением.Так что просто измените его следующим образом:

dif = y - y_pred

(Более того, вам больше не нужно, чтобы vgg_model = self.vgg_loss_model в get_loss; фактически, get_loss можно определить как статический метод CustomModelкласс, без этой внутренней custom_loss функции).


def gen(self):
    while True:
        y = np.random.randn(256, 256,3)
        x = self.vgg.predict(np.expand_dims(y, 0)).reshape((32,32,512))
        yield x, np.random.randn(256, 256,3)

Как мы уже упоминали, вход и выход модели - это одно и то же (далее, используя self.vgg.predict, вы эффективно удаляете кодировщик из всего графика расчета модели).Просто измените его следующим образом:

def gen(self):
    while True:
        x = np.random.randn(256, 256,3)
        yield x, x  # same input and output

И, наконец, эта строка:

y_pred = model.decoder(x)

Сначала примените кодер, затем примените декодер к выходу кодера, чтобы восстановить изображение.Так что реализуйте то, что вы говорите:

y_pred = model.decoder(model.vgg_loss_model(x))

Заключительное примечание: я думаю, что в этих ситуациях рисование большой графической схемы всего графа вычислений на листе бумаги, в идеале до начала реализации, будетдействительно поможет лучше понять проблему и сэкономит много времени и усилий.

...