Мне нужно кое-что узнать об общей памяти CUDA.Допустим, я назначил 50 блоков по 10 потоков на блок в карте G80.Каждый процессор SM G80 может обрабатывать 8 блоков одновременно.Предположим, что после выполнения некоторых вычислений общая память полностью занята.
Какими будут значения в разделяемой памяти, когда появятся следующие 8 новых блоков?Будут ли предыдущие значения там находиться?Или предыдущие значения будут скопированы в глобальную память, а общая память обновлена для следующих 8 блоков?