Из официального примера в документации Keras, составной классификатор LSTM обучается с использованием categorical_crossentropy
в качестве функции потерь, как и ожидалось. https://keras.io/getting-started/sequential-model-guide/#examples
Но значения y_train
высеваются с использованием numpy.random.random()
, который выводит действительные числа, по сравнению с 0,1
двоичной классификацией (что типично)
Значения y_train
повышены до значений 0,1
под капотом?
Можете ли вы даже сравнить эту функцию потерь с реальными значениями между 0,1
?
Как тогда вычисляется accuracy
? 1018 *
сбивает с толку .. нет?
from keras.models import Sequential
from keras.layers import LSTM, Dense
import numpy as np
data_dim = 16
timesteps = 8
num_classes = 10
# expected input data shape: (batch_size, timesteps, data_dim)
model = Sequential()
model.add(LSTM(32, return_sequences=True,
input_shape=(timesteps, data_dim))) # returns a sequence of vectors of dimension 32
model.add(LSTM(32, return_sequences=True)) # returns a sequence of vectors of dimension 32
model.add(LSTM(32)) # return a single vector of dimension 32
model.add(Dense(10, activation='softmax'))
model.compile(loss='categorical_crossentropy',
optimizer='rmsprop',
metrics=['accuracy'])
# Generate dummy training data
x_train = np.random.random((1000, timesteps, data_dim))
y_train = np.random.random((1000, num_classes))
# Generate dummy validation data
x_val = np.random.random((100, timesteps, data_dim))
y_val = np.random.random((100, num_classes))
model.fit(x_train, y_train,
batch_size=64, epochs=5,
validation_data=(x_val, y_val))