У меня есть Java-приложение Spark, работающее на EMR. Когда я пытаюсь запустить искровое задание, локально входя в экземпляр EMR EC2, я получаю информацию о моем регистраторе из java-приложения на консоли.
/usr/lib/spark/bin/spark-submit --class com.myproject.MyMainSparkClass --conf 'spark.driver.extraJavaOptions=-Dcong.parameters=somepropertiesparameter' --conf 'spark.executor.extraJavaOptions=-Dcong.parameters=somepropertiesparameter' --master local s3://myJarS3Location/myjar.jar
на консоли информация о моем логгере: 19/05/29 01:50:11 INFO DataTransforFileProcessUtility: ############ Job started at :2019-05-29 01:50:11.391 ############
Где, когда я использую режим кластера:
/usr/lib/spark/bin/spark-submit --deploy-mode cluster --master yarn --class com.myproject.MyMainSparkClass --conf 'spark.driver.extraJavaOptions=-Dcong.parameters=somepropertiesparameter' --conf 'spark.executor.extraJavaOptions=-Dcong.parameters=somepropertiesparameter' s3://myJarS3Location/myjar.jar
Я не могу получить информацию о регистраторе из моего приложения на моей консоли. Если я выполняю команду режима кластера в качестве шага на EMR, я не нахожу информацию регистратора приложения ни в одном из файлов журнала. Записывается ли информация журнала приложения в любое место, если мы запускаем в режиме кластера с Yarn?