В настоящее время pytorch не поддерживает кластер с несколькими процессорами в реализации DistributedDataParallel. Итак, я предполагаю, что вы имеете в виду количество ядер процессора.
Прямого эквивалента для метода подсчета gpu нет, но вы можете получить количество потоков, доступных для вычисления в pytorch, с помощью
torch.get_num_threads ()