У меня есть поезд подобный:
for model in list_models:
for i in iterations
model.train_on_batch(batch_size, inputs, outputs)
Для каждой модели в итерации модели будет выделена память GPU, так как очистить память GPU после предыдущей модели? Я нашел это для keras с tf backend, но он не работал для plaidml:
from keras import backend as K
import gc
del model
K.clear_session()
gc.collect()
или что с tf import:
def limit_mem():
K.get_session().close()
cfg = K.tf.ConfigProto()
cfg.gpu_options.allow_growth = True
K.set_session(K.tf.Session(config=cfg))
limit_mem()