Вопросы с тегом апаш-искра - PullRequest

Вопросы с тегом апаш-искра

0 голосов
0 ответов

Мне пришлось реализовать пакет Windowing, ориентированный на события, с различным количеством имен...

Gepsens / 04 сентября 2018
0 голосов
4 ответов

Я использую spark-submit для запуска задания, которое, за некоторыми исключениями, заблокировано,...

Leyla Lee / 03 сентября 2018
0 голосов
1 ответ

Когда я пытался убить искровую работу, которая вызывается из уродливой работы, ее не убивают. Это...

whoisthis / 03 сентября 2018
0 голосов
0 ответов

Производитель Kafka возвращает Java Future (или вы можете использовать обратный вызов) в любом...

gotch4 / 03 сентября 2018
0 голосов
2 ответов

Я хотел бы создать Row с несколькими аргументами, не зная их числа. Я написал что-то вроде этого в...

BMerliot / 03 сентября 2018
0 голосов
1 ответ

Я новичок в Spark, и у меня есть проект, в котором cluster есть *1003*, который собирает данные из...

Tmpoul / 03 сентября 2018
0 голосов
0 ответов

В настоящее время у меня работает спарк 2.x с пряжей. AFAIK, spark 2.x использует log4j 1.x в...

humbletrader / 03 сентября 2018
0 голосов
1 ответ

Я использую sparklyr и у меня есть искровой фрейм данных со столбцом word, который содержит слова,...

Vincent / 03 сентября 2018
0 голосов
2 ответов

У меня есть данные в двух текстовых файлах как file 1:(patient id,diagnosis code)...

pooja / 03 сентября 2018
0 голосов
0 ответов

Мы установили кластерный сервер с 4 серверами с дистрибутивом RedHat. Если мы запустим типичную...

Borja Rioja Mata / 03 сентября 2018
0 голосов
0 ответов

Я использую ноутбук Apache Zeppelin, и мне нужно передать данные JSON из spark в AngularJS с...

thanasis keramas / 03 сентября 2018
0 голосов
0 ответов

У меня следующий алгоритм: чтение из CSV-файла в отказоустойчивом режиме с указанной схемой. Если...

Andrii Sushko / 03 сентября 2018
0 голосов
1 ответ

При попытке загрузить данные из набора данных в таблицу Hive выдается ошибка: org.apache.spark.sql

Sayantan Sarkar / 03 сентября 2018
0 голосов
2 ответов

Предположим, я использую partitionBy для сохранения некоторых данных на диск, например, по дате,...

samthebest / 03 сентября 2018
0 голосов
1 ответ

У меня есть фрейм данных с такой схемой: root |-- docId: string (nullable = true) |-- Country:...

Nitesh Gupta / 03 сентября 2018
0 голосов
1 ответ

Я сохраняю фрейм данных в s3, используя блокнот zeppelin. df=spark.sql("select * from...

bob / 03 сентября 2018
0 голосов
1 ответ

Я пытаюсь записать в приемник IBM Compose Elasticsearch из Spark Structured Streaming на IBM...

Chris Snow / 03 сентября 2018
0 голосов
1 ответ

Какой из них более производительный? filter подход val df1 = df .filter('operation === true)

dataProcs / 03 сентября 2018
0 голосов
0 ответов

Я боролся за объединение DStream и RDD. Чтобы установить сцену: Искра - 2.3.1 Python - 3.6.3 РДД Я...

DataWookie / 03 сентября 2018
0 голосов
1 ответ

Я знаю, что этот вопрос задавался много раз на Переполнении стека и был удовлетворительным ответом...

MojoJojo / 03 сентября 2018
0 голосов
0 ответов

Насколько я понимаю, структурированная потоковая передача Spark основана на Spark SQL, а не на...

MaatDeamon / 02 сентября 2018
0 голосов
1 ответ

Я пытаюсь написать udaf для вычисления значений percentile. Мне нужно написать пользовательскую...

SparkABC / 02 сентября 2018
0 голосов
1 ответ

Я выполняю объект scala в блокноте zeppelin следующим образом, но получаю ошибку.

user8167344 / 02 сентября 2018
0 голосов
0 ответов

При выполнении следующего фрагмента кода я получаю исключение. Может кто-нибудь сказать мне, что не...

Ravi BS / 02 сентября 2018
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...