Будет ли PyTorch при выделении более поздней памяти GPU для некоторых тензоров случайно перезаписывать пространство памяти, используемое для нашего первого массива CUDA?
Нет.
они автоматически осведомлены об областях памяти, используемых другими программами CUDA ...
Они не "осведомлены", но каждый процесс получает свой собственный отдельный контекст ...
... или каждый из них видит всю память GPU как свою собственную?
.... и контексты имеют свои собственные адресные пространства и изоляцию. Так что нет, но нет риска повреждения памяти.
Если это последнее, есть ли способ сообщить им о распределении другими программами CUDA?
Если под «осознанным» вы подразумеваете «безопасный», то это происходит автоматически. Если под «осознанием» подразумевается какая-то функциональная совместимость, то это возможно на некоторых платформах, но это не является автоматическим c.
... предполагается, что все распределения выполняются одним и тем же процесс.
Это другая ситуация. В общем, один и тот же процесс подразумевает общий контекст, а общие контексты совместно используют пространство памяти, но применяются все обычные правила и средства защиты адресного пространства, поэтому нет риска потери безопасности.