Запись фрейма данных Spark в SQL Server (атомарная транзакция)? - PullRequest
0 голосов
/ 13 декабря 2018

У меня есть требование записать большой фрейм данных Spark в SQL Server.Это пакетное задание, которое запускается с использованием Spark 1.6.1 и Python 2.7 один раз в день.

Параметры:

  1. append: Если задание не выполнено (из-зак усечению типа данных, проблеме с подключением и т. д.) запись завершается частичной записью данных в SQL Server (не атомарных).
  2. перезапись: Таблица удаляется и создается вместо усечения(все типы данных заканчиваются как текст в целевой таблице SQL Server)
  3. pandas: Если я преобразую фрейм данных Spark в фрейм данных pandas, я получу атомарность, но это не масштабируется

Может кто-нибудь предложить наилучший подход (без использования промежуточного стола)?

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...