Как создать зависимость между действиями Pipeline для фабрики данных Azure в Python - PullRequest
0 голосов
/ 28 августа 2018

В конвейере Azure DataFactory я пытаюсь заставить два CopyActivities работать последовательно, то есть первый копирует данные из BLOB-объекта в таблицу SQL, затем второй копирует таблицу SQL в другую базу данных.

Я попробовал приведенный ниже код, но конвейер результатов не имеет зависимости, построенной на действиях (проверено в пользовательском интерфейсе Azure из диаграммы рабочего процесса и JSON). Когда я запускаю конвейер, я получаю сообщение об ошибке, как показано ниже: "ErrorResponseException: проверка шаблона не удалась: свойство 'runAfter' действия шаблона 'моя вторая операция nameScope' в строке '1' и столбце '22521' содержит несуществующее действие. Balababla ...."

Как только я вручную добавлю зависимость в пользовательском интерфейсе Azure, я смогу успешно запустить конвейер.

Буду признателен, если кто-нибудь подскажет мне пример кода (Python / C # / Powershell) или документ. Мой код Python:

    def createDataFactoryRectStage(self,  
                               aPipelineName, aActivityStageName, aActivityAcquireName,
                               aRectFileName, aRectDSName,
                               aStageTableName, aStageDSName,
                               aAcquireTableName, aAcquireDSName):
    adf_client = self.__getAdfClient()

    ds_blob = AzureBlobDataset(linked_service_name = LinkedServiceReference(AZURE_DATAFACTORY_LS_BLOB_RECT), 
                               folder_path=PRJ_AZURE_BLOB_PATH_RECT, 
                               file_name = aRectFileName,
                               format = {"type": "TextFormat",
                                         "columnDelimiter": ",",
                                         "rowDelimiter": "",
                                         "nullValue": "\\N",
                                         "treatEmptyAsNull": "true",
                                         "firstRowAsHeader": "true",
                                         "quoteChar": "\"",})    
    adf_client.datasets.create_or_update(AZURE_RESOURCE_GROUP, AZURE_DATAFACTORY, aRectDSName, ds_blob)

    ds_stage= AzureSqlTableDataset(linked_service_name = LinkedServiceReference(AZURE_DATAFACTORY_LS_SQLDB_STAGE), 
                                   table_name='[dbo].[' + aStageTableName + ']')      
    adf_client.datasets.create_or_update(AZURE_RESOURCE_GROUP, AZURE_DATAFACTORY, aStageDSName, ds_stage)

    ca_blob_to_stage = CopyActivity(aActivityStageName, 
                                    inputs=[DatasetReference(aRectDSName)], 
                                    outputs=[DatasetReference(aStageDSName)], 
                                    source= BlobSource(), 
                                    sink= SqlSink(write_batch_size = AZURE_SQL_WRITE_BATCH_SIZE))

    ds_acquire= AzureSqlTableDataset(linked_service_name = LinkedServiceReference(AZURE_DATAFACTORY_LS_SQLDB_ACQUIRE), 
                                     table_name='[dbo].[' + aAcquireTableName + ']')      
    adf_client.datasets.create_or_update(AZURE_RESOURCE_GROUP, AZURE_DATAFACTORY, aAcquireDSName, ds_acquire)
    dep = ActivityDependency(ca_blob_to_stage, dependency_conditions =[DependencyCondition('Succeeded')])

    ca_stage_to_acquire = CopyActivity(aActivityAcquireName, 
                                       inputs=[DatasetReference(aStageDSName)], 
                                       outputs=[DatasetReference(aAcquireDSName)], 
                                       source= SqlSource(), 
                                       sink= SqlSink(write_batch_size = AZURE_SQL_WRITE_BATCH_SIZE),
                                       depends_on=[dep])

    p_obj = PipelineResource(activities=[ca_blob_to_stage, ca_stage_to_acquire], parameters={})

    return adf_client.pipelines.create_or_update(AZURE_RESOURCE_GROUP, AZURE_DATAFACTORY, aPipelineName, p_obj)

1 Ответ

0 голосов
/ 28 августа 2018

Вот пример в C#, который в основном выполняет Chaining activities и цепочку действий в последовательности внутри конвейера. Помните, в ADFV1 мы должны были сконфигурировать выходные данные действия как входные данные другого действия, чтобы связать их и сделать так, чтобы они зависели друг от друга.

Фрагмент кода конвейера (обратите внимание на свойство depenOn, обеспечивающее успешное выполнение второго действия после успешного завершения первого действия) -

static PipelineResource PipelineDefinition(DataFactoryManagementClient client) {
 Console.WriteLine("Creating pipeline " + pipelineName + "...");
 PipelineResource resource = new PipelineResource {
   Activities = new List < Activity > {
    new CopyActivity {
     Name = copyFromBlobToSQLActivity,
      Inputs = new List < DatasetReference > {
       new DatasetReference {
        ReferenceName = blobSourceDatasetName
       }
      },
      Outputs = new List<DatasetReference>
      {
       new DatasetReference {
        ReferenceName = sqlDatasetName
       }
      },
      Source = new BlobSource {},
      Sink = new SqlSink {}
    },
    new CopyActivity {
     Name = copyToSQLServerActivity,
      Inputs = new List < DatasetReference > {
       new DatasetReference {
        ReferenceName = sqlDatasetName
       }
      },
      Outputs = new List<DatasetReference>
      {
       new DatasetReference {
        ReferenceName = sqlDestinationDatasetName
       }
      },
      Source = new SqlSource {},
      Sink = new SqlSink {},
      DependsOn = new List < ActivityDependency > {
       new ActivityDependency {
        Activity = copyFromBlobToSQLActivity,
         DependencyConditions = new List < String > {
          "Succeeded"
         }
       }
      }
    }
   }
 };
 Console.WriteLine(SafeJsonConvert.SerializeObject(resource, client.SerializationSettings));
 return resource;
}

Проверьте учебник по ADFV2 здесь для подробного объяснения и других сценариев.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...