Я использовал CUDA_LAUNCH_BLOCKING = 1, также не удалось.Traceback (последний вызов был последним): файл "train_11w.py", строка 691, в главном файле (args) Файл "train_11w.py", строка 244, в главном поезде (train_loader, модель, оптимизатор, эпоха, lr_decay_type, logger, args.log_interval, args) Файл "train_11w.py", строка 307, в прогнозировании поездов, ex, exnorm = модель (img, mode = 6, y = метка) Файл "/home/luban/anaconda2/lib/python2.7/site-packages / torch / nn / modules / module.py ", строка 489, в вызов результат = файл self.forward (* input, ** kwargs)" / home / luban / anaconda2 / lib /python2.7 / site-packages / torch / nn /rallel / data_parallel.py ", строка 142, в прямых репликах = self.replicate (self.module, self.device_ids [: len (входные данные]]) файл" / home /luban / anaconda2 / lib / python2.7 / site-packages / torch / nn / parallel / data_parallel.py ", строка 147, в дубликате, обратный репликат (файл module_id) Файл" / home / luban / anaconda2 / lib / python2.7 / site-packages / torch / nn / parallel / replicate.py ", строка 13, в файле replicate param_copies = Broadcast.apply (devices, * params)" /home/luban/anaconda2/lib/python2.7/site-packages / torch / nn / parallel / _functions.py ", строка 21, в прямом выходе = comm.broadcast_coalesced (входные данные, ctx.target_gpus) Файл" /home/luban/anaconda2/lib/python2.7/site-packages/torch/cuda/comm.py ", строка 40, в broadcast_coalesced возвращает torch._C._broadcast_coalesced (тензоры, устройства, buffer_size) RuntimeError: Ошибка NCCL 3: внутренняя ошибка