Я пытаюсь массово скопировать DF со строками 1,5B в таблицу SQL Server. Это всего 5 столбцов, но количество строк огромно. Я пытаюсь этот метод.
import com.microsoft.azure.sqldb.spark.bulkcopy.BulkCopyMetadata
import com.microsoft.azure.sqldb.spark.config.Config
import com.microsoft.azure.sqldb.spark.connect._
val bulkCopyConfig = Config(Map(
"url" -> "mysqlserver.database.windows.net",
"databaseName" -> "MyDatabase",
"user" -> "username",
"password" -> "*********",
"dbTable" -> "dbo.Clients",
"bulkCopyBatchSize" -> "100000",
"bulkCopyTableLock" -> "true",
"bulkCopyTimeout" -> "600"
))
df.bulkCopyToSqlDB(bulkCopyConfig)
Я следую примеру по ссылке ниже.
https://docs.microsoft.com/en-us/azure/sql-database/sql-database-spark-connector
Он продолжает работать, в течение нескольких часов, но никогда не копирует что-либо из DF в таблицу. Мысли? Предложения? Спасибо.
Кстати, если я попытаюсь скопировать гораздо меньший DF, с примерно 1,5M строк, он работает просто отлично.