Я пытаюсь передать два предложения на уровне символов в слой LSTM для классификации.Мои образцы похожи на следующие, и мои метки представляют собой классы с горячим кодированием.
label:
label array([1., 0., 0., 0., 0.])
sample:
array([['0', ' '],
[' ', 'l'],
['1', 'e'],
['1', 't'],
['2', 'n'],
['8', 'i'],
[' ', ' '],
['"', ';'],
['h', 'h'],
['t', 's'],
['t', 'o'],
['p', 't'],
['s', 'n'],
[':', 'i'],
['/', 'c'],
['/', 'a'],
['w', 'm'],
['w', '('],
['w', ' '],
['.', '0'],
['e', '.'],
['x', '5'],
['a', '/'],
['m', 'a'],
['p', 'l'],
['l', 'l'],
['e', 'i'],
['.', 'z'],
['c', 'o'],
['o', 'm'],
['m', '"'],
['/', ' '],
['c', '"'],
['m', '/'],
['s', 'd'],
['/', 'a'],
['t', 'o'],
['i', 'l'],
['n', 'n'],
['a', 'w'],
['-', 'o'],
['a', 'd'],
['c', '-'],
['c', 'r'],
['e', 'o'],
['s', 'f'],
['s', '-'],
['-', 'r'],
['e', 'o'],
['d', 't'],
['i', 'i']], dtype='<U1')
Я пытаюсь использовать слой Embedding of Keras, чтобы отобразить символы в векторы.Слой внедрения, однако, принимает только одномерные последовательности.Как я могу настроить сеть для многомерной последовательности?В настоящее время у меня есть следующий код, который работает для одномерных образцов.51 - это мой размер окна lstm, а 74 - размер моего словаря.
model = keras.models.Sequential()
model.add(keras.layers.Embedding(input_dim=74,
output_dim=74,
input_length=51))
model.add(keras.layers.Dropout(0.2))
model.add(keras.layers.LSTM(64,
dropout=0.5,
recurrent_dropout=0.5,
return_sequences=True,
input_shape=(51, 74)))
model.add(keras.layers.LSTM(64,
dropout=0.5,
recurrent_dropout=0.5))
model.add(keras.layers.Dense(num_classes, activation='sigmoid'))
model.compile(loss='categorical_crossentropy',
optimizer='adam',
metrics=['accuracy'])