Я пытаюсь подключиться к s3, предоставленному minio, используя spark, но он говорит, что мини-куб ведра не существует . (уже создана корзина)
val spark = SparkSession.builder().appName("AliceProcessingTwentyDotTwo")
.config("spark.serializer", "org.apache.spark.serializer.KryoSerializer").master("local[1]")
.getOrCreate()
val sc= spark.sparkContext
sc.hadoopConfiguration.set("fs.s3a.impl", "org.apache.hadoop.fs.s3a.S3AFileSystem")
sc.hadoopConfiguration.set("fs.s3a.endpoint", "http://localhost:9000")
sc.hadoopConfiguration.set("fs.s3a.access.key", "minioadmin")
sc.hadoopConfiguration.set("fs.s3a.secret.key", "minioadmin")
sc.hadoopConfiguration.set("fs.s3`a`.path.style.access", "true")
sc.hadoopConfiguration.set("fs.s3a.connection.ssl.enabled","false")
sc.textFile("""s3a://minikube/data.json""").collect()
Я использую следующее руководство для подключения.
https://github.com/minio/cookbook/blob/master/docs/apache-spark-with-minio.md
Это зависимости, которые я использовал в scala.
"org. apache .spark "%%" spark-core "%" 2.4.0 "," org. apache .spark "%%" spark- sql "%" 2.4.0 "," com.amazon aws "%" aws - java -sdk "%" 1.11.712 "," org. apache .had oop "%" имели oop - aws "%" 2.7.3 ",