Я бы связался с AWS и поднял лимиты, чтобы у вас не было этой проблемы.
Проблема, с которой вы столкнетесь, заключается в том, что Hadoop будет предполагать, что все узлы имеют одинаковые доступные ресурсы. Это в первую очередь означает память. Если вы выполняете много заданий, которые требуют много памяти, вы увидите постоянные сбои. В противном случае вам нужно будет настроить hadoop для небольших заданий, которые подойдут для любого узла. Это будет означать, что большие задания никогда не будут выполняться.
Если вы можете выбрать экземпляры с одинаковой памятью, вы сведете к минимуму проблемы.
Если вы не являетесь экспертом по настройке Hadoop (или хотите стать таковым), я бы этого не делал. Оставайтесь с точно таким же типом экземпляра для каждого типа узла.