Я использую асинхронный гиперполосный планировщик
https://ray.readthedocs.io/en/latest/tune-schedulers.html?highlight=hyperband
с 2 графическими процессорами.
Конфигурация моей машины имеет 2 и 12 графических процессоров.
Но все же, только один маршрут проходит одновременно, тогда как 2 испытания могли
одновременно запускать одновременно.
уточняю
ray.init(num_gpus=torch.cuda.device_count())
"resources_per_trial": {
"cpu": 4,
"gpu": int(args.cuda)}