Я пытаюсь загрузить таблицу на 40 миллионов с использованием JDBC-соединения. Очевидно, что загрузка по разделам является ответом на это.
Проблема в том, что я не знаю схемы таблицы, которую мне нужно загрузить, или столбца, по которому нужно разделить. Так как мне определить это изнутри искры?
val s_log = spark.read.format("jdbc").option("driver", "com.mysql.jdbc.Driver")
.option("url", "jdbc:mysql://impused?user=***&password=***")
.option("dbtable", "s_log")
.option("numPartitions", "500")
.option("partitionColumn", ??? no idea)
.option("lowerbound", ??? no idea)
.option("upperbound", ??? no idea)
.load()