Я запускаю тест mlr для нескольких учеников (около 15 разных учеников) с вложенной повторной выборкой с использованием элемента настройки irace.У меня такой вопрос: возможно ли запустить два уровня параллелизации на parallelMap?
Если я использую уровень mlr.benchmark, чем быстрее учащиеся заканчивают первый и только те, кто требует вычислительных ресурсов, продолжают работать, по одному потоку для каждого,В итоге получается 4, возможно, 5 потоков.
Если я использую уровень mlr.tuneParams, управление настройкой irace порождает 6 потоков, оценивает все из них, а затем, когда все они заканчивают, создает 6 других.Я знаю, что этот метод является последовательным по своей природе.
Моя точка зрения заключается в том, что ядра процессоров используются не полностью.Например, если процессор имеет 12 ядер, я мог бы запустить двух учеников одновременно, причем каждый ученик использовал 6 ядер для настройки.
Сейчас я делаю это вручную: я создаю несколько сессий R и запускаю их отдельно.
Спасибо!