Я пытаюсь написать фрейм данных с pyspark в azure SQL хранилище данных с в режиме добавления . Но, к сожалению, база данных перезаписывается при каждом выполнении сценария.
`df.write\
.format("com.databricks.spark.sqldw")\
.option("url", sqlDwUrl)\
.option("tempdir",tempdir)\
.option("forwardSparkAzureStorageCredentials", "true")\
.option("dbtable", "dbo.Table_1")\
.mode("append")\
.save()`
Я пытался использовать параметр insertInto для вставки в существующую таблицу, но сценарий не находит таблицу.