Есть ли причина, по которой этот l oop предсказывает, что метки, использующие модель тензорного потока, должны расти в памяти? - PullRequest
0 голосов
/ 25 апреля 2020

Вот l oop, кроме добавления идентификаторов и предсказаний в их соответствующие списки, этот l oop, похоже, увеличивается на 0,04 Гб в памяти за каждую итерацию.

for image, label in prediction_images:
    print(i)
    ids.append(label.numpy())
    test_image_list = [np.expand_dims(image, 0) for x in images_1]
    test_dict = {'input_1': test_image_list, 
                 'input_2': images_1}
    test_dict = tf.data.Dataset.from_tensor_slices(test_dict)
    predictions = model.predict(test_dict)
    index, value = max(enumerate(predictions), key=operator.itemgetter(1))
    pred_list.append(index)
    del index, value, predictions, test_dict, test_image_list
    i+=1

причина, по которой я генерирую прогнозы, заключается в том, что я обучил сиамскую сеть. И чтобы получить прогнозируемую метку в тестовом наборе, мне нужно сравнить каждое изображение в тестовом наборе с примером изображения из каждого класса (в данном случае 104 класса), а затем я беру этикетку с наибольшей достоверностью

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...