У меня есть керберизованный кластер, и я хочу запускать программы Spark как «пользователь ОС»,...
Я установил HDInsight.В то же время я создал несколько файлов, используя PySpark с поддержкой...
Я искал и просматривал множество статей в Интернете и, наконец, нашел возможное решение в: Я не...
Как только работа отправляется в livy, она создает для нее сеанс.Затем отправьте искру, отправьте...
Я отправляю задание на сервер livy для запуска нескольких приложений в кластере спарк. Но когда...
Когда я пытаюсь выполнить следующий запрос, я получаю сообщение об ошибке ниже.Как я могу решить...
Я пытаюсь отправить задание Spark, используя Livy Rest API с заголовками аутентификации для файла....
Я экспериментировал с разными показателями отправки заданий на сервер livy.Когда задания были...
Я выполняю команду cmd: mvn -e clean install -DskipTests в Windows, чтобы настроить apache livy,...
Я пытаюсь отправить скрипт Python с аргументами в Apache Livy. У меня уже есть код, который...
Я отправляю задание pyspark в EMR кластер из AWS Step Function через apache livy .Задание pyspark...
Есть ли другой порт, необходимый для использования LIVY со Sparklyr, кроме порта LIVY? (по...
Я использую EMR с livy, но Livy убивает некоторые сессии, есть ли способ дождаться завершения...
Я использую сервер livy (0.6) для отправки задания на спарк кластеру spark hadoop (spark-2.3.2) в...
У меня есть набор данных, где у меня есть порядковые номера, скажем, 0 и 1. Category Value...
У меня есть кластер Spark, работающий в контейнере Docker (используя изображение, которое я сделал...
Я отправляю задания на спарк-кластер, используя livy API.Я хочу увеличить значение spark.network
Если есть искровой кластер с рабочими узлами, скажем, x GB памяти, и есть 5 таких рабочих узлов,...
Я отправляю задание зажигания в Livy с помощью лямбда-функции AWS.Задание выполняется до конца...
Я пытаюсь отправить задание PySpark в Livy, используя конечную точку / batches, но я не нашел...
Я выполняю задание Spark с использованием Scala, но оно застревает, не выполняя и задачи моих...
У меня есть фрейм данных R, который я хотел бы преобразовать в фрейм данных Spark на удаленном...
Если я запускаю следующий код в spark (2.3.2.0-mapr-1901), он работает нормально при первом запуске
Я пытаюсь создать Spark Dataframe из Spark, который был инициализирован с использованием Apache...
Это моя демоверсия, это приложение может выполнять официальную работу package org.apache.livy