Сжать загрузочный диск рабочего Dataproc - PullRequest
0 голосов
/ 28 сентября 2018

Из-за некоторой путаницы во время планирования мы получили несколько рабочих узлов с дисками по 23 ТБ, которые сейчас почти полностью не используются (мы храним данные во внешнем хранилище).Поскольку накопители сейчас только тратят деньги, нам нужно сократить их до разумных размеров.Используя weresync, я смог полностью клонировать диск на гораздо меньший, но, очевидно, вы не можете заменить загрузочный диск в GCE (что для меня не имеет смысла).Есть ли способ добиться этого или мне нужно создавать новых работников, используя изображения?Если да, есть ли другие конфигурации, которые мне нужно скопировать в новый экземпляр, чтобы он был автоматически присоединен к кластеру?

Ответы [ 2 ]

0 голосов
/ 31 декабря 2018

В итоге я создал заявку с поддержкой GCP - https://issuetracker.google.com/issues/120865687 - чтобы получить официальный ответ на этот вопрос.Получил, что это невозможно в настоящее время, но должно быть доступно в ближайшее время (в течение нескольких месяцев) в бета-версии GCP CLI, возможно, в консоли и на более поздних данных.Продолжил с полной перестройкой кластера.

0 голосов
/ 28 сентября 2018

Dataproc не поддерживает изменения конфигурации виртуальных машин в работающих кластерах.

Я бы посоветовал вам удалить старый кластер и создать новый с нужным вам рабочим размером диска.

...