Я пытаюсь построить нейронную сеть для классификации сообщений Reddit следующим образом:
original_train= train[0] # messages
data_list= original_train[0:500] # take first 500 examples as training set
originaly_train=train[1] # labels/ categories
y_train=originaly_train[0:500]
x_validation=original_train[500:1000] # take another 500 examples as training set
y_validation=originaly_train[500:1000]
model = Sequential()
model.add(layers.Dense(50, activation = "relu", input_shape=(1000, )))
# Hidden - Layers
model.add(layers.Dropout(0.3, noise_shape=None, seed=None))
model.add(layers.Dense(100, activation = "relu"))
model.add(layers.Dropout(0.2, noise_shape=None, seed=None))
model.add(layers.Dense(50, activation = "relu"))
# Output- Layer
model.add(layers.Dense(20, activation = "sigmoid"))
model.summary()
model.compile(loss="categorical_crossentropy",
optimizer="Adadelta",
metrics=['accuracy'])
model.fit(vectorized_training, y_train_neralnet,
batch_size=128,
epochs=12,
verbose=1,
validation_data=(vectorized_validation, y_validation_neralnet))
Здесь входной вектор для нейронной сети должен быть вектором измерения 1000, а выходной предполагается, чтобыть вектором размера 20, потому что мы пытаемся классифицировать 20 объектов.
, поэтому мой vectorized_training имеет форму (500,1000), а y_train_neralnet имеет форму (500,20), то же самое относится к vectorized_validation и y_validation_neralnet.
Это проблема классификации текста. Итак, у нас есть набор слов. Каждый вход представляет собой вектор частот тех слов, которые появляются в сообщении. соответствующая метка представляет собой вектор измерения 20, где вы получаете 1 в определенной позиции, а ноль - где указать, к какой из 20 меток он принадлежит. Но я получаю эту ошибку:
ValueError: Error when checking model input: the list of Numpy arrays that you are passing to your model is not the size the model expected. Expected to see 1 array(s), but instead got the following list of 500 arrays: [array([[0],
[0],
[0],
[1],
[0],
[1],
[0],
[1],
[0],
[0],
[0],
[0],
[0],
[0],
[0],
[0],
...