Я пытаюсь загрузить большой файл с FTP и сохранить его где-нибудь в каком-либо хранилище Azure, а затем запустить BulkInsert в sql на Azure и сохранить данные в таблицу
У меня есть FTP-сервер, который я читаюданные в виде файлов CSV из. Некоторые из этих файлов очень тяжелые, около 1,5 ГБ или даже больше. До сих пор я загружал эти файлы в память, а затем сохранял их в базе данных с помощью C # BulkCopy в Azure, но теперь я получаю эту ошибку OutOfMemoryException, которая, вероятно, связана с размером файла.
Вот почему я думаю об использовании BulkInsert напрямую из SQL на Azure, но тогда этому экземпляру SQL необходим доступ к хранилищу, в которое загружается файл, и, конечно, это не может быть моя локальная машина, потому что кажется, что я не могу запустить команду BulkInsert наSQL Server в Azure, когда исходный файл находится в моем локальном хранилище.
Есть ли способ загрузить и сохранить файл в хранилище Azure, к которому у SQL есть доступ, а затем выполнить BulkInsert?