Совершенно новый для keras и ML в целом. Я смотрю на https://machinelearningmastery.com/use-word-embedding-layers-deep-learning-keras/, и он использует Flatten между Embedding и Dense, потому что Embedding создает 2D-вектор, но Dense требует одномерного измерения.
Я уверен, что мне не хватает здесь есть кое-что очевидное, но почему при этом не теряется, какие слова в каких входных векторах? Как мы можем узнать, что вход № 3 был «хорошей работой» и связан с меткой № 3, 1 для «положительного»?
Я предполагаю, что исходные размеры сохраняются из исходного ввода, а затем как-то восстанавливать для выхода Dense? Или мне просто не хватает важного концептуального аспекта?
model = Sequential()
model.add(Embedding(vocab_size, 8, input_length=max_length))
model.add(Flatten())
model.add(Dense(1, activation='sigmoid'))
Спасибо за любые рекомендации!