Потребление памяти при увеличении набора данных Якобиана - PullRequest
0 голосов
/ 07 февраля 2019

Я пытаюсь повторить результаты из https://arxiv.org/abs/1602.02697,, но использую изображения размером 224x224x3 , следуя инструкциям из черного ящика https://github.com/tensorflow/cleverhans/blob/master/cleverhans_tutorials/mnist_blackbox.py

Тем не менее, я нажимаю на памятьошибка потребления (вставлено ниже).Мне кажется, что источником проблемы может быть увеличение набора данных якобиана: https://github.com/tensorflow/cleverhans/blob/master/cleverhans/utils_tf.py#L657

Тем не менее, я не знаю, как это проверить.

Я запускаю код на 8 ГБ графическом процессоре.

Может быть, этот метод не работает на больших изображениях?Как я могу это исправить?В чем сложность метода?

...
2019-02-07 18:21:32.984709: I tensorflow/core/common_runtime/bfc_allocator.cc:645] Sum Total of in-use chunks: 7.31GiB
2019-02-07 18:21:32.984715: I tensorflow/core/common_runtime/bfc_allocator.cc:647] Stats:
Limit:                  7860224000
InUse:                  7848987648
MaxInUse:               7848987648
NumAllocs:                10041921
MaxAllocSize:           2424832000

2019-02-07 18:21:32.984831: W tensorflow/core/common_runtime/bfc_allocator.cc:271] ****************************************************************************************************
2019-02-07 18:21:32.984849: W tensorflow/core/framework/op_kernel.cc:1273] OP_REQUIRES failed at transpose_op.cc:199 : Resource exhausted: OOM when allocating tensor with shape[4,256,56,56] and type float on /job:localhost/replica:0/task:0/device:GPU:0 by allocator GPU_0_bfc

1 Ответ

0 голосов
/ 16 февраля 2019

Это, скорее всего, объясняется тем, что размер X_batch удваивается на каждой итерации p_idxs.Если вы замените L698-703 вызовом batch_eval, предоставленным в CleverHans, вы, скорее всего, сможете вычислить это даже в ImageNet.Если это решит вашу проблему, не стесняйтесь подавать в качестве пиара CleverHans на GitHub.

...