Я пытаюсь обучать разные модели последовательно, без необходимости перезапуска моей программы или постоянного изменения кода, чтобы таким образом я мог позволить своему ПК обучать разные модели
Я использую цикл for при подаче разной информации из словаря для построения разных моделей каждый раз, и поэтому я могу обучать новую модель каждый раз, когда вызывается функция de, для проверки точности различных установок, чтобы понять, какой из них является лучший на каждый случай
def create_model(modeltoload):
model = Sequential()
previsores, alto, baixo, fechado, aberto = get_train_data(modeltoload)
if modeltoload['Type'] == 'LSTM':
if len(modeltoload['Layers']) == 1:
model.add(LSTM(units=modeltoload['Layers'][0], activation='tanh',
input_shape=(previsores.shape[1], modeltoload['Entry'])))
model.add(Dropout(0.3))
else:
model.add(LSTM(units=modeltoload['Layers'][0], activation='tanh', return_sequences=True,
input_shape=(previsores.shape[1], modeltoload['Entry'])))
model.add(Dropout(0.3))
for i in range(1, len(modeltoload['Layers'])):
if i == (len(modeltoload['Layers'])-1):
model.add(LSTM(units=modeltoload['Layers'][i], activation='tanh'))
else:
model.add(LSTM(units=modeltoload['Layers'][i], activation='tanh', return_sequences=True))
model.add(Dense(units=1, activation='relu'))
if modeltoload['Type'] == 'DENSE':
model.add(Dense(units=modeltoload['Layers'][0], activation='relu', input_dim=modeltoload['Entry']*5+1))
model.add(Dropout(0.1))
for i in range(1, len(modeltoload['Layers'])):
model.add(Dense(units=modeltoload['Layers'][i], activation='relu'))
model.add(Dropout(0.1))
model.add(Dense(units=1, activation=modeltoload['Activation']))
model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['binary_accuracy'])
return model
, а затем
def train_model(modeltoload):
previsores, classe, baixo, fechado, aberto = get_train_data(modeltoload)
model = create_model(modeltoload)
history1 = model.fit(previsores, classe, epochs=1000, batch_size=modeltoload['Batch'],
callbacks=[es, rlr, mcp, csv], shuffle='batch', verbose=2, validation_split=0.1)
k.clear_session()
del model
return history1
Проблема в том, что когда я начинаю первую тренировку, все идет хорошо, как это:
Training: DENSE/60N-14B-190E-tanh.h5
Train on 2575 samples, validate on 287 samples
Epoch 1/1000
Epoch 00001: loss improved from inf to 2.50127, saving model to DENSE/60N-14B-190E-tanh.h5
- 1s - loss: 2.5013 - binary_accuracy: 0.4711 - val_loss: 1.1434 - val_binary_accuracy: 0.5017
Epoch 2/1000
.
.
.
Epoch 307/1000
Epoch 00307: loss did not improve
- 0s - loss: 0.5200 - binary_accuracy: 0.7522 - val_loss: 0.8077 - val_binary_accuracy: 0.5401
Epoch 00307: early stopping
Но когда создается вторая и так далее модель, потери начинаются не с [inf], а с последнего значения предшествующего обучения:
Training: DENSE/60N-14B-220E-tanh.h5
Train on 2548 samples, validate on 284 samples
Epoch 1/1000
Epoch 00001: loss did not improve
- 1s - loss: 1.3203 - binary_accuracy: 0.5063 - val_loss: 0.7724 - val_binary_accuracy: 0.5246
Epoch 2/1000
Epoch 00002: loss did not improve
- 0s - loss: 0.7366 - binary_accuracy: 0.4945 - val_loss: 0.7247 - val_binary_accuracy: 0.5000
Даже при использовании
k.clear_session()
del model
Кажется, я загружаю некоторую предыдущую информацию о последней обученной модели. Есть ли у кого-нибудь понимание этой проблемы?