У меня есть список Filename, FilePath и FileSize. Я хочу вставить эти данные в мою таблицу кустов с помощью spark SQL.
var fs1 = FileSystem.get(sparksession.sparkContext.hadoopConfiguration)
var file_path = fs1.listStatus(new Path("path")).filter(_.isFile).map(_.getPath).toList
var new_files = fs1.listStatus(new Path("path")).filter(_.isFile).map(_.getPath.getName).toList
var file_size = fs1.listStatus(new Path("path")).filter(_.isFile).map(_.getLen).toList
var file_data = file_path zip new_files zip file_size
for ((filedetail, size) <- file_size){
var filepath = filedetail._1
var filesize: Long = size
var filename = filedetail._2
var df = spark.sql(s"insert into mytable(file_path,filename,file_size) select '${file_path}' as file_path,'${new_files}' as filename,'${file_size}' as file_size")
df.write.insertInto("dbname.tablename")
}
. Он генерирует этот запрос вставки:
insert into mytable(file_path,filename,file_size) select 'List(path/filename.txt,path/filename4.txt,path/filename5.txt)' as file_path,'List(filename.txt, filename4.txt, filename5.txt)' as filename,'List(19, 19, 19)' as file_size;
и я получаю сообщение об ошибке:
несоответствующий ввод 'file_path' Ожидается {'(', 'SELECT', 'FROM', 'VALUES', 'TABLE', 'INSERT' , 'MAP', 'REDUCE'} (строка 1, поз. 34)
Я хочу вставить данные в формате таблицы
file_path filename file_size
path/filename.txt filename.txt 19
path/filename4.txt filename4.txt 19
path/filename5.txt filename5.txt 19
Может кто-нибудь подсказать, как мне вставить данные, как указано выше?
есть ли способ снова разбить этот запрос на 3 разных оператора вставки.
insert into mytable(file_path,filename,file_size) select 'path/filename.txt' as file_path,'filename.txt' as filename,'19' as file_size;
insert into mytable(file_path,filename,file_size) select 'path/filename3.txt' as file_path,'filename3.txt' as filename,'19' as file_size;
insert into mytable(file_path,filename,file_size) select 'path/filename4.txt' as file_path,'filename4.txt' as filename,'19' as file_size;