Вопросы с тегом апаш-искра - PullRequest

Вопросы с тегом апаш-искра

0 голосов
0 ответов

У меня настроен честный планировщик, как указано в документе: conf.set("spark.scheduler

MaatDeamon / 30 августа 2018
0 голосов
1 ответ

Чтение файла паркета работает, но получает формат с отступом вместо желаемого формата вывода JSON....

Justin Wilson / 29 августа 2018
0 голосов
2 ответов

Я пытаюсь преобразовать RDD [(String, Map [String, Int])] в RDD [String, String, Int] и в конечном...

Rasika / 29 августа 2018
0 голосов
0 ответов

В doc указывается, что можно запланировать несколько заданий в одном сеансе / контексте Spark....

MaatDeamon / 29 августа 2018
0 голосов
1 ответ

Я хочу дискретизировать переменную, используя R, предпочтительно SparkR, чтобы желаемые результаты...

Geet / 29 августа 2018
0 голосов
0 ответов

Предположим, я использую Spark для обучения модели логистической регрессии и настроил ее на 100...

Gal / 29 августа 2018
0 голосов
1 ответ

Со страницы spark-nlp GitGub Я скачал файл .zip, содержащий предварительно обученную NerCRFModel....

Gevorg / 29 августа 2018
0 голосов
3 ответов

У меня есть data_date, который дает формат ггггммдд: beginDate = Some(LocalDate

Misha / 29 августа 2018
0 голосов
2 ответов

У меня есть датафрейм, и он был импортирован из mysql dataframe_mysql.show()...

Rajkiran / 29 августа 2018
0 голосов
1 ответ

У меня есть скрипт, работающий в параграфе с интерпретатором Spark в Zeppelin. Он имеет импорт, и...

jleeothon / 29 августа 2018
0 голосов
0 ответов

Я написал udf в pyspark, в котором используется цикл for с индексами (в основном это всего...

Charles Van Damme / 29 августа 2018
0 голосов
1 ответ

У меня установлена ​​Zeppelin, и я использую интерпретатор Spark. Однако, если у меня есть...

jleeothon / 29 августа 2018
0 голосов
0 ответов

Я борюсь с оптимизацией моих пользовательских функций, которые в настоящее время передаются как UDF

aasthetic / 29 августа 2018
0 голосов
0 ответов

Какая версия Py4J идет с Spark 2.3.1? У меня есть py4j-0.10.7, но выдает ошибку из-за определенных...

Aakash Basu / 29 августа 2018
0 голосов
0 ответов

Я собрал клиента Kafka, который извлекает данные из записи Kafka в Elasticsearch, программа...

user3243478 / 29 августа 2018
0 голосов
1 ответ

Я относительно новичок в PySpark. Я пытался кэшировать данные 30 ГБ, потому что мне нужно выполнить...

lU5er / 29 августа 2018
0 голосов
1 ответ

Мне нужно обработать фрейм данных, содержащий логи (вход и выход) для приложения Данные приведены...

Purmanund Sookun / 29 августа 2018
0 голосов
0 ответов

Когда я выполняю следующий простой код Spark: val trial = Try { require( requirement = false,...

tribbloid / 29 августа 2018
0 голосов
1 ответ

Когда я пытаюсь установить зависимость пакета "spark-sftp" в моей конфигурации Spark, я получаю...

Manideep / 29 августа 2018
0 голосов
1 ответ

В драйвере я создал val для трансляции, который создается без проблем: val some_val = 100 val...

thebluephantom / 29 августа 2018
0 голосов
0 ответов

Я сталкиваюсь со следующей ошибкой: Я написал приложение, основанное на потоковой передаче Spark (...

scalacode / 28 августа 2018
0 голосов
1 ответ

У меня есть искровой фрейм данных, ради аргумента давайте возьмем его: val df = sc.parallelize(...

Paul / 28 августа 2018
0 голосов
4 ответов

Я пытаюсь создать фрейм данных с одной строкой, значения которой равны нулю. val df = Seq(null...

Achyuth / 28 августа 2018
0 голосов
2 ответов

В Spark 2.2 была включена опция Оптимизатора затрат. Документация говорит, что нам нужно...

Prashant / 28 августа 2018
0 голосов
3 ответов

У моего исходного CSV есть столбец времени, например Time Attempt 12.07.2018 00:00:00 50 12.07.2018...

getitout / 28 августа 2018
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...