С точки зрения Tensorflow-GPU: списка нет.
Существует два способа запуска TF на графическом процессоре:
Без XLA, однократная операция A0 Завершенный тензор потока выделит память для всех операций в зависимости от A0: B0, B1, B2 и др. c. Как только они завершены, TF освободит память A0 как ненужную. Если у вас сверточный NN, вы, как правило, сохраняете все свои активации прямого пути, пока не начнется обратный путь.
С помощью XLA несколько операций можно объединить в блоки. Внутри блока операции могут быть объединены / разделены / дублированы, чтобы уменьшить использование памяти. Кластер XLA будет иметь собственную процедуру управления памятью, и это будет зависеть от того, как операции были смешаны вместе. Несколько кластеров XLA будут вести себя как несколько операций не-XLA: все они начнутся как можно скорее, что, вероятно, приведет к неоптимальному пиковому использованию памяти.