задания базы данных создают записную книжку INVALID_PARAMETER_VALUE "," message ":" Должны быть заданы настройки задания. " - PullRequest
0 голосов
/ 04 октября 2019

Я пытаюсь создать задание Databricks с помощью CLI Databricks. Работа запускает тетрадь Python. Я могу создать записную книжку в Databricks, используя "импорт рабочей области databricks ...". Я пытался создать задание, используя: задания базы данных: создать --json-файл C: \ Users \ myid \ Documents \ db_cli \ Hello.json

Где файл Hello.json содержит:

{
  "name": "SimpleJob",
  "settings": {
      "notebook_task": {
        "language": "PYTHON",
        "object_type": "NOTEBOOK",
        "notebook_path": "/Users/Appid@blah.com/SimpleNotebook"
      }
    },
  "new_cluster": {
    "custom_tags": [{"key": "component", "value": "aeops"}],
    "node_type_id": "i3.xlarge",
    "spark_version": "5.5.x-scala2.11",
    "aws_attributes": {
      "ebs_volume_type": "GENERAL_PURPOSE_SSD",
      "ebs_volume_count": 3,
      "ebs_volume_size": 100,
      "spot_bid_price_percent": 120,
      "availability": "SPOT_WITH_FALLBACK",
      "first_on_demand": 1,
      "instance_profile_arn": "arn:aws:iam::<actual acct id goes here>:instance-profile/db-ec2-role",
      "num_workers": 8,
      "spark_env_vars": {
        "PYSPARK_PYTHON": "/databricks/python3/bin/python3"
      }
    },
    "autoscale": {
      "min_workers": 1,
      "max_workers": 100
    },
    "email_notifications": {
      "on_start": [],
      "on_success": [],
      "on_failure": ["johnDoe@blah.com"]
    },
    "timeout_seconds": 0,
    "max_retries": 3,
    "max_concurrent_runs": 1
  }
}

Когда я запускаю: задания базы данных создают файл --json C: \ Users \ user1 \ Documents \ db_cli \ Hello.json

Создает задание, но Задача в задании не ссылается наЗаписная книжка Python /Users/Appid@blah.com/SimpleNotebook

Какие изменения в моем JSON требуются, чтобы я мог создать задание и иметь ссылку на указанную записную книжку Python в работе?

...