Вот l oop, кроме добавления идентификаторов и предсказаний в их соответствующие списки, этот l oop, похоже, увеличивается на 0,04 Гб в памяти за каждую итерацию.
for image, label in prediction_images:
print(i)
ids.append(label.numpy())
test_image_list = [np.expand_dims(image, 0) for x in images_1]
test_dict = {'input_1': test_image_list,
'input_2': images_1}
test_dict = tf.data.Dataset.from_tensor_slices(test_dict)
predictions = model.predict(test_dict)
index, value = max(enumerate(predictions), key=operator.itemgetter(1))
pred_list.append(index)
del index, value, predictions, test_dict, test_image_list
i+=1
причина, по которой я генерирую прогнозы, заключается в том, что я обучил сиамскую сеть. И чтобы получить прогнозируемую метку в тестовом наборе, мне нужно сравнить каждое изображение в тестовом наборе с примером изображения из каждого класса (в данном случае 104 класса), а затем я беру этикетку с наибольшей достоверностью