Я не уверен, что это то, о чем вы просили, но пробовали ли вы сделать что-то вроде:
memory_usage = number_of_variables * memory_usage_per_variable.
Итак, если вы используете torch.float32
тензоры, и у вас есть 125 000 переменных, отправленных на графический процессор с .cuda()
. Тогда вы используете 4 Гбайт памяти на своем графическом процессоре. Вы можете сравнить с тем, сколько памяти у вас доступно в вашей памяти.
Еще одна проверка работоспособности - это проверка использования памяти графическим процессором для каждой итерации вашей модели. Если оно удваивается, значит, у вас утечка памяти.
Надеюсь, это поможет.