Вопросы с тегом апаш-искра - PullRequest

Вопросы с тегом апаш-искра

0 голосов
0 ответов

Я получил вывод из запроса Spark SQL, несмотря на то, что фактическая таблица кустов не содержит...

venkat / 17 февраля 2019
0 голосов
0 ответов

Я пытаюсь понять, как работает потоковая передача в spark. У меня есть файл в каталоге...

Manu Chadha / 17 февраля 2019
0 голосов
3 ответов

У меня есть несколько Map[String, String] в List (Scala).Например: map1 = Map("EMP_NAME"...

SAIYED / 17 февраля 2019
0 голосов
0 ответов

У меня есть потоковый код pyspark, который считывает данные сердцебиения с сервера kafka.Я могу...

goutham r / 17 февраля 2019
0 голосов
1 ответ

Я хочу запустить алгоритм двусвязного графа на графике, используя GraphFrames, работающий с pyspark...

Ron F / 17 февраля 2019
0 голосов
0 ответов

У меня есть этап с одной задачей.Я пытаюсь понять, почему taskMetrics. taskTime (7051/10 ^ 3 = 7,0...

Dror B. / 17 февраля 2019
0 голосов
0 ответов
0 голосов
0 ответов

У меня есть текстовый файл HDFS, каждая строка которого является URL-адресом, с которого я могу...

David / 17 февраля 2019
0 голосов
0 ответов

Я анализирую файлы Twitter с целью взять актуальную тему в формате json с Spark SQL После того, как...

Enrique Benito Casado / 17 февраля 2019
0 голосов
1 ответ

Я выполняю задание потоковой передачи, в рамках которого я создаю несколько широковещательных...

Venkata / 17 февраля 2019
0 голосов
0 ответов

Может кто-нибудь помочь прояснить различные варианты управления памятью в новейшей версии Spark 2.4

abhinavkulkarni / 17 февраля 2019
0 голосов
1 ответ

Я использовал MinHashLSH с приблизительным значением сходства со Scala и Spark 2.4, чтобы найти...

atheodos / 16 февраля 2019
0 голосов
0 ответов

Я использую pyspark. В моей программе я создаю фрейм данных и вставляю данные в Oracle DB. Но не...

Rudrashis / 16 февраля 2019
0 голосов
1 ответ

У меня есть одна функция, которая отправляет большой объем данных (миллиарды строк) и возвращает...

Martin / 16 февраля 2019
0 голосов
1 ответ

Я создал фрейм данных pyspark, как показано ниже: df = spark.createDataFrame([([0.1,0.2], 2), ([0

Praveen / 16 февраля 2019
0 голосов
0 ответов

У меня есть фильмы и соответствующие им касты в базе данных Neo4j, и я хочу создать COWORKER...

Tim Holdsworth / 16 февраля 2019
0 голосов
0 ответов

Я работаю в университете, и пытаюсь заставить Spark SQL работать с зашифрованными данными.Я...

proxyfss / 16 февраля 2019
0 голосов
0 ответов

Я хочу загрузить данные из нескольких файлов, хранящихся в одном каталоге, в многораздельную...

Tahreem Nawaz / 16 февраля 2019
0 голосов
0 ответов

Я хочу обнулить какое-то значение в моем вложенном фрейме данных и записать его в Amazon Redshift,...

Am1rr3zA / 15 февраля 2019
0 голосов
0 ответов

Я работаю в университете, и пытаюсь заставить Spark SQL работать с зашифрованными данными (с...

proxyfss / 15 февраля 2019
0 голосов
0 ответов

java.lang.UnsupportedOperationException: org.apache.parquet.column.values.dictionary

Parthiv Gogree / 15 февраля 2019
0 голосов
1 ответ

Я новичок в Spark и проходил через Dataframes и Dataset.Я пытался понять разницу между ними, но я...

optimal substructure / 15 февраля 2019
0 голосов
0 ответов

Я хочу выполнить следующие операции над фреймом данных: Столбец Groupby Данные окна выполнить (udf)...

ciri / 15 февраля 2019
0 голосов
1 ответ

Environment : EMR AWS Kinesis Steam Language : PySpark У меня есть входящий поток AWS Kinesis, и я...

Sachin Sukumaran / 15 февраля 2019
0 голосов
1 ответ

В моем коде я пытаюсь загрузить файл, который находится на моем локальном компьютере, в приложение...

arg / 15 февраля 2019
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...