Я пытаюсь прочитать данные с SQL-сервера для обработки с использованием Spark.Я использую Zeppelin для написания своих команд Scala.Я никогда не работал на Java, Spark или Zeppelin, поэтому мне трудно разобраться в проблемах.
Я установил spark на свою машину, и все, кажется, работает, как я могу успешно перейти к spark-shell.Я установил Zeppelin через Docker, и это также, кажется, работает, поскольку я могу создать новый блокнот и запустить «sc» и увидеть напечатанный тип SparkContext.
Теперь я хочу прочитать данные из SQL Server.Я планирую использовать azure-sqldb-spark разъем , но я не уверен, как его использовать.Я пытаюсь добавить это как интерпретатор в Zeppelin, но не уверен, какие свойства требуются и как его использовать.
Это то, что я сделал до сих пор.
- Загрузил jar файл из репозитория GitHub.(Я не могу запустить это на своем компьютере, так как это жалуется на то, что нет файла манифеста)
- Скопировал этот файл jar в контейнер с zeppelin
- Попытался создать интерпретатор в Zeppelin
Вот свойства:
Я указываю зависимость от файла JAR следующим образом.
Я попытался немного поиграть со свойствами, но безуспешно.Я даже не уверен, что это правильный способ сделать это.
Я пытаюсь выполнить следующий запрос, но встреча с подходящим драйвером не найдена.