Amazon EMR, Apache Spark 2.3, Apache Kafka, ~ 10 млн. Записей в день.
Apache Spark используется для обработки событий в пакетах по 5 минут, один раз в день рабочие узлы умирают, и AWS автоматически выполняет повторное предоставлениеузлы.При просмотре сообщений журнала кажется, что в узлах нет места, но у них там около 1 Тб памяти.
Были ли у кого-то проблемы с местом для хранения в тех случаях, когда его должно быть более чем достаточно?
Я думал, что агрегация журналов не может должным образом скопировать журналы в корзину s3, что должно быть выполнено автоматически процессом spark, как я вижу.
Какую информацию я должен предоставить, чтобы помочьрешить эту проблему?
Заранее спасибо!