Я тренирую автоматический кодер seq-to-seq в Керасе, и мой ввод (num_examples, time_step, num_features)
.Проблема в том, что num_features
не одинаков для всех примеров, и, кроме того, в будущем я получу дополнительные примеры с неизвестным размером num_feature
.
Мой код до сих пор:
# model architecture
inputs = Input(shape=data.shape[1:])
encoded1 = LSTM(32, return_sequences=True)(inputs)
encoded2 = LSTM(32)(encoded1)
latent_space = Dense(encoding_size)(encoded2)
decoded1 = RepeatVector(1)(latent_space)
decoded2 = LSTM(encoding_size, return_sequences=True)(decoded1)
sequence_autoencoder = Model(inputs, decoded2)
Я пробовал: inputs = Input(shape=(1, None))
, но выдает ошибку.Любые идеи о том, как я мог бы подойти к этому?