В конвейере Azure DataFactory я пытаюсь заставить два CopyActivities работать последовательно, то есть первый копирует данные из BLOB-объекта в таблицу SQL, затем второй копирует таблицу SQL в другую базу данных.
Я попробовал приведенный ниже код, но конвейер результатов не имеет зависимости, построенной на действиях (проверено в пользовательском интерфейсе Azure из диаграммы рабочего процесса и JSON). Когда я запускаю конвейер, я получаю сообщение об ошибке, как показано ниже:
"ErrorResponseException: проверка шаблона не удалась: свойство 'runAfter' действия шаблона 'моя вторая операция nameScope' в строке '1' и столбце '22521' содержит несуществующее действие. Balababla ...."
Как только я вручную добавлю зависимость в пользовательском интерфейсе Azure, я смогу успешно запустить конвейер.
Буду признателен, если кто-нибудь подскажет мне пример кода (Python / C # / Powershell) или документ.
Мой код Python:
def createDataFactoryRectStage(self,
aPipelineName, aActivityStageName, aActivityAcquireName,
aRectFileName, aRectDSName,
aStageTableName, aStageDSName,
aAcquireTableName, aAcquireDSName):
adf_client = self.__getAdfClient()
ds_blob = AzureBlobDataset(linked_service_name = LinkedServiceReference(AZURE_DATAFACTORY_LS_BLOB_RECT),
folder_path=PRJ_AZURE_BLOB_PATH_RECT,
file_name = aRectFileName,
format = {"type": "TextFormat",
"columnDelimiter": ",",
"rowDelimiter": "",
"nullValue": "\\N",
"treatEmptyAsNull": "true",
"firstRowAsHeader": "true",
"quoteChar": "\"",})
adf_client.datasets.create_or_update(AZURE_RESOURCE_GROUP, AZURE_DATAFACTORY, aRectDSName, ds_blob)
ds_stage= AzureSqlTableDataset(linked_service_name = LinkedServiceReference(AZURE_DATAFACTORY_LS_SQLDB_STAGE),
table_name='[dbo].[' + aStageTableName + ']')
adf_client.datasets.create_or_update(AZURE_RESOURCE_GROUP, AZURE_DATAFACTORY, aStageDSName, ds_stage)
ca_blob_to_stage = CopyActivity(aActivityStageName,
inputs=[DatasetReference(aRectDSName)],
outputs=[DatasetReference(aStageDSName)],
source= BlobSource(),
sink= SqlSink(write_batch_size = AZURE_SQL_WRITE_BATCH_SIZE))
ds_acquire= AzureSqlTableDataset(linked_service_name = LinkedServiceReference(AZURE_DATAFACTORY_LS_SQLDB_ACQUIRE),
table_name='[dbo].[' + aAcquireTableName + ']')
adf_client.datasets.create_or_update(AZURE_RESOURCE_GROUP, AZURE_DATAFACTORY, aAcquireDSName, ds_acquire)
dep = ActivityDependency(ca_blob_to_stage, dependency_conditions =[DependencyCondition('Succeeded')])
ca_stage_to_acquire = CopyActivity(aActivityAcquireName,
inputs=[DatasetReference(aStageDSName)],
outputs=[DatasetReference(aAcquireDSName)],
source= SqlSource(),
sink= SqlSink(write_batch_size = AZURE_SQL_WRITE_BATCH_SIZE),
depends_on=[dep])
p_obj = PipelineResource(activities=[ca_blob_to_stage, ca_stage_to_acquire], parameters={})
return adf_client.pipelines.create_or_update(AZURE_RESOURCE_GROUP, AZURE_DATAFACTORY, aPipelineName, p_obj)