Можем ли мы иметь непрерывную интеграцию и доставку на блоки данных, используя Azure DevOps - PullRequest
0 голосов
/ 06 апреля 2020

Мое требование - автоматически c создавать резервные копии записных книжек Databricks через запланированные промежутки времени и отправлять Azure в *1009* репозиторий DevOps. Мне нужно получить около 10 рабочих областей Databricks и поместить их в один Azure DevOps Repository. Есть ли какие-либо методы для достижения того же! Также, просматривая Документы поддержки Databricks, я наткнулся на нижеприведенный материал. Можно ли использовать один сценарий для резервного копирования нескольких рабочих областей в Azure Репозитории DevOps!

https://docs.databricks.com/dev-tools/ci-cd.html

1 Ответ

0 голосов
/ 07 апреля 2020

Для этой проблемы вы можете попытаться связать книгу с хранилищем и зафиксировать ее непосредственно в хранилище, выполнив следующие действия:

1. Откройте свою записную книжку, обратите внимание История изменений в правая верхняя часть экрана. Нажмите История изменений , чтобы открыть боковую панель истории версий.

2. Нажмите Git: Not Linked, чтобы обновить Git Preferences. Свяжите свою книгу с Azure Репо DevOps, который должен быть URL вашего git репозитория, и установите Путь в Git Репо к месту, в котором вы хотите, чтобы блоки данных сохраняли вашу записную книжку в репозитории.

enter image description here

enter image description here

Подробнее см. В части «Шаг 3» этого документа, Кроме того, я думаю, что сценарий в указанной вами ссылке также возможен, вы также можете попробовать его.

...