Копирование данных 'Storage Connection' заставляет использовать хранилище BLOB-объектов в ADF вместо ADLS Gen2 - PullRequest
0 голосов
/ 05 августа 2020

У меня есть фабрика данных с вводом от ADLS Gen2 (только это совместимо в нашей компании). Работает нормально. Приведенный ниже pi c - это настройки активности «копирование данных». Как указано в pi c для хранения журналов (данных о пропущенных строках), мы вынуждены использовать хранилище BLOB-объектов или данные первого поколения. Как мы можем использовать для этого ADLS Gen2? Похоже на узкое место. У нас возникнут проблемы с самоуспокоением, если такие данные будут храниться за пределами Gen2

введите описание изображения здесь

1 Ответ

0 голосов
/ 05 августа 2020

С моей стороны, это не проблема, попробуйте напрямую изменить определение json вашей активности:

Это мой json:

{
    "name": "pipeline3",
    "properties": {
        "activities": [
            {
                "name": "Copy data1",
                "type": "Copy",
                "dependsOn": [],
                "policy": {
                    "timeout": "7.00:00:00",
                    "retry": 0,
                    "retryIntervalInSeconds": 30,
                    "secureOutput": false,
                    "secureInput": false
                },
                "userProperties": [],
                "typeProperties": {
                    "source": {
                        "type": "BinarySource",
                        "storeSettings": {
                            "type": "AzureBlobFSReadSettings",
                            "recursive": true
                        },
                        "formatSettings": {
                            "type": "BinaryReadSettings"
                        }
                    },
                    "sink": {
                        "type": "BinarySink",
                        "storeSettings": {
                            "type": "AzureBlobFSWriteSettings"
                        }
                    },
                    "enableStaging": false,
                    "logStorageSettings": {
                        "linkedServiceName": {
                            "referenceName": "AzureDataLakeStorage1",
                            "type": "LinkedServiceReference"
                        }
                    },
                    "validateDataConsistency": false
                },
                "inputs": [
                    {
                        "referenceName": "Binary1",
                        "type": "DatasetReference"
                    }
                ],
                "outputs": [
                    {
                        "referenceName": "Binary2",
                        "type": "DatasetReference"
                    }
                ]
            }
        ],
        "annotations": []
    }
}

enter image description here

введите описание изображения здесь

...