Как быть с размером изображений и фильтров, если мы используем Covolutional LSTM + Conv2D? - PullRequest
0 голосов
/ 20 января 2020

Я работаю над Convolutional LSTM + сверточная нейронная сеть. Вместо получения моих данных в формате изображения мне дали матрицу сглаженных изображений, которая составляет [10000x784].

Означает 10000 изображений размером 28x28

Учитывая, что один размер изображения составляет 28x28, я пытаюсь следующие для CLSTM

Моя модель:

model = models.Sequential()
model.add(layers.Reshape((None,28, 28,1 ), input_shape=(784,)))
model.add(layers.ConvLSTM2D(filters=64, kernel_size=(3, 3),
                   input_shape=(None, 28, 28, 1),
                   padding='same', return_sequences=True))
model.add(layers.Conv2D(32, (3, 3), activation='relu'))
model.add(layers.Conv2D(32, (3, 3), activation='relu'))
model.add(layers.MaxPooling2D((2, 2)))
model.add(layers.Flatten())
model.add(layers.Dense(2500, activation='relu'))
model.add(layers.Dense(1, activation='linear'))

, но я получаю сообщение об ошибке. Что я могу сделать, чтобы сделать ndims = 5?

1 Ответ

0 голосов
/ 20 января 2020

Сначала попробуйте напечатать сведения о входе и выходе вашей модели: - (например:) o / p будет выглядеть следующим образом - Модель ввода в метки: [{'name': 'input', 'index': 451, ' shape ': array ([1, 160, 160, 3], dtype = int32),' dtype ':,' квантование ': (0.0, 0)}] Вывод модели меток: [{' name ':' embeddings ' , 'index': 450, 'shape': массив ([1, 512], dtype = int32), 'dtype':, 'квантование': (0,0, 0)}]

как только вы получите детали, в соответствии с деталями, вам нужно будет присвоить значения.

...