Я пытаюсь повторить результаты из https://arxiv.org/abs/1602.02697,, но использую изображения размером 224x224x3 , следуя инструкциям из черного ящика https://github.com/tensorflow/cleverhans/blob/master/cleverhans_tutorials/mnist_blackbox.py
Тем не менее, я нажимаю на памятьошибка потребления (вставлено ниже).Мне кажется, что источником проблемы может быть увеличение набора данных якобиана: https://github.com/tensorflow/cleverhans/blob/master/cleverhans/utils_tf.py#L657
Тем не менее, я не знаю, как это проверить.
Я запускаю код на 8 ГБ графическом процессоре.
Может быть, этот метод не работает на больших изображениях?Как я могу это исправить?В чем сложность метода?
...
2019-02-07 18:21:32.984709: I tensorflow/core/common_runtime/bfc_allocator.cc:645] Sum Total of in-use chunks: 7.31GiB
2019-02-07 18:21:32.984715: I tensorflow/core/common_runtime/bfc_allocator.cc:647] Stats:
Limit: 7860224000
InUse: 7848987648
MaxInUse: 7848987648
NumAllocs: 10041921
MaxAllocSize: 2424832000
2019-02-07 18:21:32.984831: W tensorflow/core/common_runtime/bfc_allocator.cc:271] ****************************************************************************************************
2019-02-07 18:21:32.984849: W tensorflow/core/framework/op_kernel.cc:1273] OP_REQUIRES failed at transpose_op.cc:199 : Resource exhausted: OOM when allocating tensor with shape[4,256,56,56] and type float on /job:localhost/replica:0/task:0/device:GPU:0 by allocator GPU_0_bfc