Я преобразую данные в разных записных книжках Databricks (чтение, преобразование и запись в / из ADLS).Я соединил эти записные книжки в конвейере DataFactory:
Notebook 1 --> Notebook 2 --> Notebook 3 --> Notebook
Я создал соединение с моими базами данных из DataFactory и добавил его в свои записи.Я хотел бы запустить кластер Databricks всякий раз, когда конвейер был запущен.В целом все это работает нормально.Но Databricks запускает кластер заданий для каждой операции с ноутбуком, который занимает слишком много времени и кажется мне ненужным.
Можно ли запустить кластер в начале конвейера, а затем завершить его после завершения всех ноутбуков??Или есть какие-то аргументы, что хорошо иметь кластер заданий для каждого вида деятельности?