Как тренировать модели керас подряд - PullRequest
0 голосов
/ 16 июня 2019

Я пытаюсь обучать разные модели последовательно, без необходимости перезапуска моей программы или постоянного изменения кода, чтобы таким образом я мог позволить своему ПК обучать разные модели

Я использую цикл for при подаче разной информации из словаря для построения разных моделей каждый раз, и поэтому я могу обучать новую модель каждый раз, когда вызывается функция de, для проверки точности различных установок, чтобы понять, какой из них является лучший на каждый случай

def create_model(modeltoload):
    model = Sequential()
    previsores, alto, baixo, fechado, aberto = get_train_data(modeltoload)
    if modeltoload['Type'] == 'LSTM':
        if len(modeltoload['Layers']) == 1:
            model.add(LSTM(units=modeltoload['Layers'][0], activation='tanh',
                           input_shape=(previsores.shape[1], modeltoload['Entry'])))
            model.add(Dropout(0.3))
        else:
            model.add(LSTM(units=modeltoload['Layers'][0], activation='tanh', return_sequences=True,
                           input_shape=(previsores.shape[1], modeltoload['Entry'])))
            model.add(Dropout(0.3))
        for i in range(1, len(modeltoload['Layers'])):
            if i == (len(modeltoload['Layers'])-1):
                model.add(LSTM(units=modeltoload['Layers'][i], activation='tanh'))
            else:
                model.add(LSTM(units=modeltoload['Layers'][i], activation='tanh', return_sequences=True))
        model.add(Dense(units=1, activation='relu'))
    if modeltoload['Type'] == 'DENSE':
        model.add(Dense(units=modeltoload['Layers'][0], activation='relu', input_dim=modeltoload['Entry']*5+1))
        model.add(Dropout(0.1))
        for i in range(1, len(modeltoload['Layers'])):
            model.add(Dense(units=modeltoload['Layers'][i], activation='relu'))
            model.add(Dropout(0.1))
        model.add(Dense(units=1, activation=modeltoload['Activation']))
    model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['binary_accuracy'])
    return model

, а затем

def train_model(modeltoload):
    previsores, classe, baixo, fechado, aberto = get_train_data(modeltoload)
    model = create_model(modeltoload)
    history1 = model.fit(previsores, classe, epochs=1000, batch_size=modeltoload['Batch'],
                         callbacks=[es, rlr, mcp, csv], shuffle='batch', verbose=2, validation_split=0.1)
    k.clear_session()
    del model
    return history1

Проблема в том, что когда я начинаю первую тренировку, все идет хорошо, как это:

Training: DENSE/60N-14B-190E-tanh.h5
Train on 2575 samples, validate on 287 samples
Epoch 1/1000
Epoch 00001: loss improved from inf to 2.50127, saving model to DENSE/60N-14B-190E-tanh.h5
 - 1s - loss: 2.5013 - binary_accuracy: 0.4711 - val_loss: 1.1434 - val_binary_accuracy: 0.5017
Epoch 2/1000 
.
.
.
Epoch 307/1000
Epoch 00307: loss did not improve
 - 0s - loss: 0.5200 - binary_accuracy: 0.7522 - val_loss: 0.8077 - val_binary_accuracy: 0.5401
Epoch 00307: early stopping

Но когда создается вторая и так далее модель, потери начинаются не с [inf], а с последнего значения предшествующего обучения:

Training: DENSE/60N-14B-220E-tanh.h5
Train on 2548 samples, validate on 284 samples
Epoch 1/1000
Epoch 00001: loss did not improve
 - 1s - loss: 1.3203 - binary_accuracy: 0.5063 - val_loss: 0.7724 - val_binary_accuracy: 0.5246
Epoch 2/1000
Epoch 00002: loss did not improve
 - 0s - loss: 0.7366 - binary_accuracy: 0.4945 - val_loss: 0.7247 - val_binary_accuracy: 0.5000

Даже при использовании

k.clear_session() 
del model 

Кажется, я загружаю некоторую предыдущую информацию о последней обученной модели. Есть ли у кого-нибудь понимание этой проблемы?

1 Ответ

0 голосов
/ 17 июня 2019

Я предполагаю, что из результатов обучения, которые вы включили, вы используете обратный вызов Keras ModelCheckpoint.Если вы используете одну и ту же ModelCheckpoint для нескольких запусков обучения, она сохранит вашу новую модель только в том случае, если потеря новой модели улучшит предыдущую сохраненную модель.

Чтобы исправить эту проблему, просто сгенерируйте объект ModelCheckpointкаждый раз в пределах вашей train_model функции.

...