Я пытаюсь создать задание Databricks с помощью CLI Databricks. Работа запускает тетрадь Python. Я могу создать записную книжку в Databricks, используя "импорт рабочей области databricks ...". Я пытался создать задание, используя: задания базы данных: создать --json-файл C: \ Users \ myid \ Documents \ db_cli \ Hello.json
Где файл Hello.json содержит:
{
"name": "SimpleJob",
"settings": {
"notebook_task": {
"language": "PYTHON",
"object_type": "NOTEBOOK",
"notebook_path": "/Users/Appid@blah.com/SimpleNotebook"
}
},
"new_cluster": {
"custom_tags": [{"key": "component", "value": "aeops"}],
"node_type_id": "i3.xlarge",
"spark_version": "5.5.x-scala2.11",
"aws_attributes": {
"ebs_volume_type": "GENERAL_PURPOSE_SSD",
"ebs_volume_count": 3,
"ebs_volume_size": 100,
"spot_bid_price_percent": 120,
"availability": "SPOT_WITH_FALLBACK",
"first_on_demand": 1,
"instance_profile_arn": "arn:aws:iam::<actual acct id goes here>:instance-profile/db-ec2-role",
"num_workers": 8,
"spark_env_vars": {
"PYSPARK_PYTHON": "/databricks/python3/bin/python3"
}
},
"autoscale": {
"min_workers": 1,
"max_workers": 100
},
"email_notifications": {
"on_start": [],
"on_success": [],
"on_failure": ["johnDoe@blah.com"]
},
"timeout_seconds": 0,
"max_retries": 3,
"max_concurrent_runs": 1
}
}
Когда я запускаю: задания базы данных создают файл --json C: \ Users \ user1 \ Documents \ db_cli \ Hello.json
Создает задание, но Задача в задании не ссылается наЗаписная книжка Python /Users/Appid@blah.com/SimpleNotebook
Какие изменения в моем JSON требуются, чтобы я мог создать задание и иметь ссылку на указанную записную книжку Python в работе?