Как использовать драйвер SQL JDBC с Spark и Zepplin - PullRequest
0 голосов
/ 01 октября 2018

Я пытаюсь прочитать данные с SQL-сервера для обработки с использованием Spark.Я использую Zeppelin для написания своих команд Scala.Я никогда не работал на Java, Spark или Zeppelin, поэтому мне трудно разобраться в проблемах.

Я установил spark на свою машину, и все, кажется, работает, как я могу успешно перейти к spark-shell.Я установил Zeppelin через Docker, и это также, кажется, работает, поскольку я могу создать новый блокнот и запустить «sc» и увидеть напечатанный тип SparkContext.

Теперь я хочу прочитать данные из SQL Server.Я планирую использовать azure-sqldb-spark разъем , но я не уверен, как его использовать.Я пытаюсь добавить это как интерпретатор в Zeppelin, но не уверен, какие свойства требуются и как его использовать.

Это то, что я сделал до сих пор.

  1. Загрузил jar файл из репозитория GitHub.(Я не могу запустить это на своем компьютере, так как это жалуется на то, что нет файла манифеста)
  2. Скопировал этот файл jar в контейнер с zeppelin
  3. Попытался создать интерпретатор в Zeppelin

Вот свойства:

enter image description here

Я указываю зависимость от файла JAR следующим образом.

enter image description here

Я попытался немного поиграть со свойствами, но безуспешно.Я даже не уверен, что это правильный способ сделать это.

Я пытаюсь выполнить следующий запрос, но встреча с подходящим драйвером не найдена.

enter image description here

...