Использование памяти Spark Streaming Job со временем увеличивается - PullRequest
0 голосов
/ 02 февраля 2019

Я выполняю задание потоковой передачи в режиме кластера пряжи.Это приведет к получению записей из очереди kafka, а затем создаст набор данных и выполнит некоторые операции над набором данных.Работа выполняется ровно в течение часа, после чего происходит ненормальное время обработки.Я видел, что потребляемая память постепенно увеличивалась со временем.Я использовал spark.cleaner.ttl для очистки памяти.Но все еще есть эта проблема.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...