Я работаю над одним проектом, который размещен в кластере.И недавно, время от времени, я начал получать это сообщение:
Exception in thread "main" java.lang.IllegalArgumentException: System memory 5767168 must be at least 471859200. Please increase heap size using the --driver-memory option or spark.driver.memory in Spark configuration.
Это приложение развернуто в кластере. Должен ли я затем изменить свойство executorMemory?И могу ли я сделать это в файле application.properties в моем проекте Maven, там уже указан spark.executorMemory, который установлен в 1024?Спасибо!