В документации по квоте Cloud ML-Engine упоминается:
Total concurrent number of GPUs: This is the maximum number of GPUs in concurrent use, split per type as follows:
Concurrent number of Tesla K80 GPUs: 30.
Concurrent number of Tesla P100 GPUs: 30.
В соответствии с этим я должен иметь возможность одновременно выполнять 60 заданий, если они разделены 30/30 между этими двумя типамиGPU.
На практике после запуска 30 заданий P100 мои задания K80 остаются в очереди и не планируются.Это ожидается?