Работает с классическим SQL:
spark.sql( s"INSERT INTO mydb.myT (id,x) VALUES ($id,'$x')" )
(возможно, что-то с использованием dataframe.insertInto
возможно без использования литеральных шаблонов)
Также синтаксис HQLс stack
и несколькими значениями
spark.sql( s"INTO INTO mydb.mytab SELECT t1.* FROM ( select stack(2, $id1,'$x1', $id2,'$x2') as (id,etc) ) t1" )
Но теперь мне нужно несколько с произвольным числом значений (id(i), x(i)
с i = 1 ..n> 2) что-то, что я могу поместить сначала в последовательность, а затем (после того, как вся последовательность была создана) в «шаблон стека» ... Как это сделать с помощью методов Spark (изящных)?
... Или, может быть, лучше, используя dataframe и без шаблона SQL-строки.