Я пытаюсь создать универсальную функцию для чтения CSV-файла, используя базы данных CSV READER. Но опция не обязательна, она может отличаться в зависимости от моего входного файла конфигурации JSON.
Пример 1:
"ReaderOption":{
"delimiter":";",
"header":"true",
"inferSchema":"true",
"schema":"""some custome schema.."""
},
Example2:
"ReaderOption":{
"delimiter":";",
"schema":"""some custome schema.."""
},
Можно ли построить параметры или весь оператор read во время выполнения и запустить в spark?
как показано ниже,
def readCsvWithOptions(): DataFrame=
{
val options:Map[String,String]= Map("inferSchema"->"true")
val readDF = jobContext.spark.read.format("com.databricks.spark.csv")
.option(options)
.load(inputPath)
readDF
}