Deeplab xception для развертывания на стороне сервера - PullRequest
0 голосов
/ 17 января 2020

Я использую Deeplab с магистралью Xception, чтобы иметь возможность использовать графические процессоры на разных узлах удаленного HP C. 7 графических процессоров успешно добавлены, но я все еще получаю ошибку исчерпания ресурсов при увеличении размера пакета выше 4.

Примечание: я повторно использую все тренировочные веса, КРОМЕ ЛОГИТОВ, так как количество классов в моем классе разное набор данных.

python train.py \ --logtostderr \ --model_variant = "xception_71" \ --training_number_of_steps = 5000 \ --initialize_last_layer = False \ --last_layers_contain_logits_only = True \ --train_split = "train" \ --atrous_rates = 6 \ --atrous_rates = 12 \ --atrous_rates = 18 \ --output_stride = 16 \ --decoder_output_stride = 4 \ --fine_tune_batch_norm = True \ --train_crop_size = "513,513" \ --train_batch_size = 16 \ --dataset = "remotesensing" \ --train_logdir = "наборы данных / remotesensing / exp / train_on_train_set / train" \ --dataset_dir = "наборы данных / remotesensing / tfrecord" \

...