Я специально задал похожий вопрос на форумах NVIDIA о том, как передавать данные между двумя gpus, и получил ответы о том, что если вы хотите использовать два gpus одновременно и передавать данные между ними, у вас должно быть два потока (какРуководство предполагает).В руководстве говорится, что «ресурсы CUDA» не могут быть общими, однако память хоста, из которой они копируются, может быть разделена (используя openmp или mpi).Таким образом, если вы перенесете свою память обратно на хост с каждого устройства, вы можете получить доступ к памяти между устройствами.
Имейте в виду, что это будет очень медленно, так как передача памяти на / с устройств будет очень медленной.
Так что нет, вы не можете получить доступ к памяти gpu1 из gpu2 (даже с sli - на меня кричали, что я вообще не связан с cuda).однако вы можете взять gpu1, записать в область на хосте, а затем взять gpu2 и записать в другой регион, и позволить потокам, управляющим каждым устройством, записать необходимые данные для исправления gpu.