Вопросы с тегом апаш-искровой SQL - PullRequest

Вопросы с тегом апаш-искровой SQL

0 голосов
3 ответов

У меня есть требование соединить 50 нечетных файлов на наборе из 3 ключей, используя кадры данных...

BeeBeeGee / 16 января 2019
0 голосов
1 ответ

Я работаю над проектом прогнозирования ссылок в Spark, используя Scala. Моя цель состоит в том,...

Valentina / 16 января 2019
0 голосов
1 ответ

У меня около 700 ГБ данных, которые я читаю из HDFS при каждом запуске задания Spark. Моя работа...

GothamGirl / 16 января 2019
0 голосов
0 ответов

У меня есть оригинальный фрейм данных с несколькими столбцами, чтобы упростить их: product_id,...

iluvex / 16 января 2019
0 голосов
1 ответ

Мой набор данных ~ 20 миллионов строк, занимает ~ 8 ГБ ОЗУ. Я выполняю свою работу с 2...

VB_ / 16 января 2019
0 голосов
1 ответ

У меня есть набор данных, который я хочу записать, отсортированный в файлы паркета, чтобы...

mly / 16 января 2019
0 голосов
1 ответ

У меня есть два класса scala как часть моей работы на spark-sql, то есть Driver.scala и...

Shyam / 16 января 2019
0 голосов
1 ответ

У меня есть работающее приложение, которое запрашивает таблицу кустов, используя HiveContext, и оно...

Ajith Kannan / 16 января 2019
0 голосов
2 ответов

После прочтения некоторых технических статей говорят, что датафрейм знает только имя столбца, но не...

Wayne / 16 января 2019
0 голосов
1 ответ

У меня есть следующий сценарий на моем наборе данных. Мне нужно суммировать значения некоторых...

BigD / 15 января 2019
0 голосов
1 ответ

Мне интересно, как удалить диакритические знаки в Pyspark Dataframe с помощью Python2. Мне нужно...

Pavel Prochazka / 15 января 2019
0 голосов
2 ответов

Я пытаюсь отфильтровать DataFrame, сравнивая два столбца даты, используя Scala и Spark. На основе...

Inna / 15 января 2019
0 голосов
4 ответов

У меня есть фрейм данных Spark в следующем формате. df = spark.createDataFrame([(1, 2, 3), (1, 4,...

Rinaz Belhaj / 15 января 2019
0 голосов
1 ответ

Я хочу вставить в свой фрейм данных tfIdfFr столбец с именем "ref" с константой, тип...

Kaharon / 15 января 2019
0 голосов
2 ответов

У меня есть потоковый источник Kafka с JSON, например, {"type":"abc"...

SLU / 15 января 2019
0 голосов
1 ответ

Я реализую метод buildScan API источника данных Spark v1. override def buildScan(requiredColumns:...

Pallavi / 15 января 2019
0 голосов
1 ответ

Я пытаюсь преобразовать ниже Teradata SQL в Spark SQL, но не могу. Может кто-нибудь предложить...

user1496783 / 15 января 2019
0 голосов
1 ответ

У меня есть PySpark Dataframe, который содержит столбец ArrayType(StringType()). Этот столбец...

Thomas / 14 января 2019
0 голосов
1 ответ

В моей программе Scala у меня есть фрейм данных со схемой: root |-- FIRST_NAME: string (nullable =...

Priyesh Chhabra / 14 января 2019
0 голосов
2 ответов

Я знаю, что это очень специфическая проблема, и не принято публиковать подобные вопросы в...

Qubix / 14 января 2019
0 голосов
3 ответов

В моем коде Spark Java написан UDF, в котором я хочу передать более 22 столбцов (ровно 24). Но...

Vpn_Kp / 13 января 2019
0 голосов
1 ответ

Мне нужно добиться чего-то похожего на: Проверка, являются ли значения в List частью String в искре

Georg Heiler / 13 января 2019
0 голосов
1 ответ

Spark 2.4 представил новые полезные функции Spark SQL, включающие массивы, но я был немного...

datapug / 12 января 2019
0 голосов
0 ответов
0 голосов
1 ответ

Я работаю над двумя CSV-файлами для объединения данных и создания JSON Payload с использованием...

Tushar Kesarwani / 12 января 2019
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...