Я ищу пакетный загрузчик для склеивания задания для загрузки в RDS с использованием скрипта PySpark с DataFormatWriter.
У меня это работает для RedShift следующим образом:
df.write \
.format("com.databricks.spark.redshift") \
.option("url", jdbcconf.get("url") + '/' + DATABASE + '?user=' + jdbcconf.get('user') + '&password=' + jdbcconf.get('password')) \
.option("dbtable", TABLE_NAME) \
.option("tempdir", args["TempDir"]) \
.option("forward_spark_s3_credentials", "true") \
.mode("overwrite") \
.save()
Где df
определено выше для чтения в файле. Какой наилучший подход я мог бы сделать, чтобы сделать это в RDS, а не в REDSHIFT?