Слой density_66 был вызван с входом, который не является символическим тензором - PullRequest
0 голосов
/ 05 марта 2019

У меня есть набор данных N folder(N ID), у каждого N ID folder есть M folder внутри, и у каждой папки M есть 8 изображений внутри.Я хочу обучить набор данных с 2D-CNN.Моя модель содержит 8 CNNs, каждая из которых берет одно из изображений папки M, после окончания первой папки с этим идентификатором модель берет следующую папку с 8 изображениями, и каждое изображение переходит к одной из 8 моделей и так далее.наконец, я объединяю выходные данные 8 моделей, но я столкнулся с проблемой, когда хочу объединить все наборы данных.Как можно объединить выходные данные первых 8 моделей с выходными данными вторых 8 моделей и так далее, пока не закончится набор данных.мой дизайн модели выглядит следующим образом: enter image description here

мой код Python выглядит следующим образом:

model_out = []
input_list = []
model_list = []
for fold_Path in listing:
image_fold = os.listdir(ID_Paths + "\\" + fold_Path)
for file in image_fold:
    segments = os.listdir(ID_Paths + "\\" + fold_Path + "\\" + file)
    segments_list = []
    input_list = []
    output_list = []
    model_out = []
    for seg in segments:
        im = (ID_Paths + "\\" + fold_Path + "\\" + file + "\\" + seg)
        image = cv2.imread(im)
        image = cv2.resize(image, (60, 60))
        segments_list.append(image)

        if len(segments_list) == 8:
            seg1 = Input(shape=segments_list[0].shape, name="seg1")
            input_list.append(seg1)
            conv0_1 = Conv2D(32, (3, 3), padding="same")(seg1)
            act0_1 = Activation("relu")(conv0_1)
            batch0_1 = BatchNormalization(axis=-1)(act0_1)
            pool0_1 = MaxPooling2D(pool_size=(2, 2))(batch0_1)
            drop0_1 = Dropout(0.25)(pool0_1)

            conv0_2 = Conv2D(64, (3, 3), padding="same")(drop0_1)
            act0_2 = Activation("relu")(conv0_2)
            batch0_2 = BatchNormalization(axis=-1)(act0_2)
            pool0_2 = MaxPooling2D(pool_size=(2, 2))(batch0_2)
            drop0_2 = Dropout(0.25)(pool0_2)
            out1 = Flatten()(drop0_2)
            output_list.append(out1)

# the same design until model 8
.
.
.
            seg8 = Input(shape=segments_list[7].shape, name="seg8")
            input_list.append(seg8)
            conv7_1 = Conv2D(32, (3, 3), padding="same")(seg8)
            act7_1 = Activation("relu")(conv7_1)
            batch7_1 = BatchNormalization(axis=-1)(act7_1)
            pool7_1 = MaxPooling2D(pool_size=(2, 2))(batch7_1)
            drop7_1 = Dropout(0.25)(pool7_1)

            conv7_2 = Conv2D(64, (3, 3), padding="same")(drop7_1)
            act7_2 = Activation("relu")(conv7_2)
            batch7_2 = BatchNormalization(axis=-1)(act7_2)
            pool7_2 = MaxPooling2D(pool_size=(2, 2))(batch7_2)
            drop7_2 = Dropout(0.25)(pool7_2)
            out8 = Flatten()(drop7_2)
            output_list.append(out8)
# -----------Now Concatenation of 8 models will be start-----------------------------------------------------------------------------
            merge = Concatenate()(output_list)
            print("Concatenation Ended...Dense will be done...")
            den1 = Dense(128)(merge)
            act = Activation("relu")(den1)
            bat = BatchNormalization()(act)
            drop = Dropout(0.5)(bat)

            model_out.append(drop)

        else:
            continue

        small_model = Model(inputs=input_list, outputs=model_out)
        model_list.append(small_model)
        print("Concatenation done")
        segments_list = []
        input_list = []
        output_list = []
        model_out = []
# it is OK till here, after this step I don't know how can I concatenate the output of each concatenated result

den2 = Dense(128)(model_list) # the error in this line
act2 = Activation("relu")(den2)
bat2 = BatchNormalization()(act2)
drop2 = Dropout(0.5)(bat2)

# softmax classifier
print("Classification will be start")
final_out1 = Dense(classes)(drop2)
final_out = Activation('softmax')(final_out1)
#inp = Input(shape=den2.shape)
#big_model = Model(inputs=inp, outputs=final_out)
final_out.compile(loss="categorical_crossentropy", optimizer= opt, metrics=["accuracy"])
final_out.fit_generator(aug.flow(trainX, trainY, batch_size=BS),validation_data=(testX, testY),steps_per_epoch=len(trainX) // BS, epochs=EPOCHS, verbose=1)

Когда я запускаю программу, она дает мнеследующая ошибка:

ValueError: Layer dense_66 was called with an input that isn't a symbolic tensor.

Может кто-нибудь, пожалуйста, помогите мне.Как я могу объединить, скомпилировать, обучить весь набор данных.Любой намек может быть полезным, спасибо.

1 Ответ

0 голосов
/ 05 марта 2019

Это потому, что вы передаете список объектов модели model_list, которые не являются тензорами, они оборачивают графы вычислений, которые с учетом входных данных производят тензоры. Вместо этого вы должны собрать тензорные выходы, что-то вроде:

  #...
  model_ins.append(seg1)
  # ...
  model_outs.append(drop)
# ...
all_model_outs = Concatenate(model_outs)
flat_model_outs = Flatten()(all_model_outs)
den2 = Dense(128)(flat_model_outs) # the error in this line
# ...
big_model= Model(model_ins, final_out)
big_model.compile(loss="categorical_crossentropy", optimizer= opt, metrics=["accuracy"])
big_model.fit_generator(aug.flow(trainX, trainY, batch_size=BS),validation_data=(testX, testY),steps_per_epoch=len(trainX) // BS, epochs=EPOCHS, verbose=1)

Идея состоит в том, что вы можете взять любые входные и выходные вычисления большого графика и преобразовать их в модель для обучения. Здесь большая модель - это все входные данные для конечного результата, который вы вычисляете, который будет обучать все меньшие модели вместе. Вы все еще можете использовать меньшие модели для индивидуального прогнозирования позже.

...