Я только начал работать с Data Lake и сейчас пытаюсь понять реальные шаги рабочего процесса и как автоматизировать весь процесс.
Скажем, у меня есть входные файлы, и я хотел бы обработать их и загрузить выходные файлы, чтобы отправить их в мое хранилище данных и / или SSAS.
Я нашел абсолютно прекрасный API , и все это хорошо, но я не могу найти способ получить все имена файлов в каталоге, чтобы они загружались дальше.
Пожалуйста, исправьте мои мысли относительно рабочего процесса. Есть ли другой, более элегантный способ автоматического переноса всех обработанных данных (выводов) в хранилище (например, обычный SQL Server, SSAS, хранилище данных и т. Д.)?
Если у вас есть рабочее решение на основе Data Lake, опишите рабочий процесс (от «сырых» файлов до отчетов для конечных пользователей) несколькими словами.
вот мой пример приложения NET Core
using Microsoft.Azure.DataLake.Store;
using Microsoft.IdentityModel.Clients.ActiveDirectory;
using Microsoft.Rest.Azure.Authentication;
var creds = new ClientCredential(ApplicationId, Secret);
var clientCreds = ApplicationTokenProvider.LoginSilentAsync(Tenant, creds).GetAwaiter().GetResult();
var client = AdlsClient.CreateClient("myfirstdatalakeservice.azuredatalakestore.net", clientCreds);
var result = client.GetDirectoryEntry("/mynewfolder", UserGroupRepresentation.ObjectID);