AFAIK EnvConfig.ETL_AWS_ACCESS_KEY_ID
и ETL_AWS_SECRET_ACCESS_KEY
не заполняются, из-за чего не может быть задана искробезопасность с нулевыми или пустыми значениями. попытайтесь напечатать и отладить значения.
также чтение свойств из --conf spark.xxx
должно быть похоже на этот пример. Я надеюсь, что вы следуете этому ...
spark.sparkContext.getConf.getOption("spark. ETL_AWS_ACCESS_KEY_ID")
как только вы проверите это, этот пример должен работать ...
/**
* Hadoop-AWS Configuration
*/
sparkSession.sparkContext.hadoopConfiguration.set("fs.s3a.proxy.host", proxyHost)
sparkSession.sparkContext.hadoopConfiguration.set("fs.s3a.proxy.port", proxyPort)
sparkSession.sparkContext.hadoopConfiguration.set("fs.s3a.aws.credentials.provider", "com.amazonaws.auth.DefaultAWSCredentialsProviderChain")
sparkSession.sparkContext.hadoopConfiguration.set("fs.s3.impl", "org.apache.hadoop.fs.s3native.NativeS3FileSystem")
sparkSession.sparkContext.hadoopConfiguration.set("fs.s3a.impl", "org.apache.hadoop.fs.s3a.S3AFileSystem")
sparkSession.sparkContext.hadoopConfiguration.set("fs.s3a.server-side-encryption-algorithm", "AES256")
sparkSession.sparkContext.hadoopConfiguration.set("fs.s3n.server-side-encryption-algorithm", "AES256")
sparkSession.sparkContext.hadoopConfiguration.set("spark.hadoop.fs.s3a.impl", "org.apache.hadoop.fs.s3a.S3AFileSystem
другое дело, используйте
--master yarn
или --master local[*]
можно использовать вместо
-conf spark.yarn.appMasterEnv.ETL_SPARK_MASTER=yarn
ОБНОВЛЕНИЕ:
--conf spark.driver.port=20002
может решить эту проблему. где 20002 - орбитальный порт .. похоже, что он ждет определенного порта некоторое время и повторяет попытку в течение некоторого времени, и он терпит неудачу за исключением того, что вы получили.
Я понял эту идею, пройдя отсюда мастер-код приложения Sparks
и комментарий Это немного странно, но нам нужно подождать, пока искра Свойство .driver.port было установлено потоком, выполняющим класс пользователя.
вы можете попробовать это и сообщить мне.
Дальнейшее чтение: Apache Spark : Как изменить порт, который слушает драйвер Spark