Хорошо. Я не знаю, является ли это правильным подходом, но на самом деле это создает прагматические кластеры на моем ресурсе azure. наряду с предыдущими изменениями, о которых я упоминал выше, я дополнительно удалил "new_cluster"
(см. пример здесь ) и
response = requests.post(
'https://%s/api/2.0/clusters/create' % (DOMAIN),
headers={"Authorization": "Bearer %s" % (TOKEN)},
json={
"cluster_name": name.lower().strip(),
"spark_version": "6.2.x-scala2.11",
"node_type_id": "Standard_D3_v2",
"spark_env_vars": {
"PYSPARK_PYTHON": "/databricks/python3/bin/python3"
},
"spark_conf": {
"spark.databricks.cluster.profile": "serverless",
"spark.databricks.repl.allowedLanguages": "sql,python,r"
},
"autoscale": {
"min_workers": 2,
"max_workers": 8
},
"ssh_public_keys": [],
"autotermination_minutes":50
}
)