Мы используем библиотеку spark-redshift для выгрузки из нашего кластера RS.
Ковш S3 и кластер работают в регионе us-west-2. Тем не менее, наша EMR управляет регионом США-Восток-1.
Мы продолжаем получать сообщение об ошибке, что мы должны использовать правильную конечную точку.
Invalid operation: S3ServiceException:The bucket you are attempting to access must be addressed using the specified endpoint.
Есть ли способ выгрузки с RS из другого региона, если S3 находится в том же регионе, что и кластер? Я не знаю каких-либо жестких ограничений в этом сценарии. Вот наша команда выгрузки:
var df = spark.read.format("com.databricks.spark.redshift")
.option("url", "jdbc:redshift://URL")
.option("query", "(SELECT count(*) from TABLE)")
.option("tempdir","s3a://WESTBUCKET/PATH")
.option("region","us-west-2").load