У меня есть несколько терабайтных файлов, которые необходимо загрузить в базу данных, которая находится на высокопроизводительном SQL-сервере AZURE в облаке.
На данный момент я пытаюсь загрузить эти файлы через пакет служб SSIS. и это занимает более 12 часов, чтобы завершить для 5 файлов.
Я считаю, что HDInsight / Data Bricks находятся в Azure для обработки ETL больших данных и анализа данных с использованием Ambari и другого пользовательского интерфейса. Но возможно ли использовать то же самое (HDInsight или DataBricks) для загрузки огромных файлов данных в таблицу / базу данных SQL? (Как использование кластеров для загрузки нескольких файлов в режиме параллельного выполнения)
Любое предложение / помощь очень ценится