Вопросы с тегом апаш-искровой SQL - PullRequest

Вопросы с тегом апаш-искровой SQL

0 голосов
2 ответов

Я пытаюсь сравнить даты ниже в фильтре, как показано ниже: - фрейм данных KIN_PRC_FILE имеет...

shubham / 28 ноября 2018
0 голосов
0 ответов

При попытке перезаписать таблицу Hive с определенными столбцами из Spark (Pyspark) с использованием...

Joby / 28 ноября 2018
0 голосов
1 ответ

Похоже, что spark sql чувствителен к регистру для похожих запросов, верно? spark.sql("select...

djohon / 28 ноября 2018
0 голосов
2 ответов

У меня есть данные, хранящиеся в файлах паркета и таблице кустов, разделенные по годам, месяцам и...

ira / 28 ноября 2018
0 голосов
1 ответ

У меня есть следующий код, написанный в pyspark sql, который выглядит следующим образом: dep_cus =...

subash poudel / 28 ноября 2018
0 голосов
2 ответов

У меня есть обработанный фрейм данных, который я хочу добавить к исходному фрейму данных.Но это...

San / 28 ноября 2018
0 голосов
1 ответ

Я читал таблицу из БД MapR со Spark.Но столбец отметки времени выводится как InvalidType.При чтении...

Hasif Subair / 28 ноября 2018
0 голосов
1 ответ

Я использую spark для чтения данных из таблицы Hive, и мне действительно нужен строго...

Shay / 27 ноября 2018
0 голосов
3 ответов
0 голосов
1 ответ

Я пытаюсь вставить в Hive, используя приведенный ниже код, но по какой-то причине он всегда терпит...

Srinivas / 27 ноября 2018
0 голосов
1 ответ

Допустим, я пытаюсь сделать некоторую статистику по некоторым выборочным данным, которые состоят из...

Matthias / 27 ноября 2018
0 голосов
0 ответов

Мне нужно прочитать данные JMS activemq и отправить их в hadoop, чтобы их можно было открыть через...

user1708054 / 27 ноября 2018
0 голосов
0 ответов

Мне нужно найти скользящее среднее значение временного ряда, разделенное полем «ReportId».Я...

Remis Haroon / 27 ноября 2018
0 голосов
1 ответ

У меня есть столбец с именем event_data в формате json в моем искровом DataFrame, после прочтения...

SarahData / 27 ноября 2018
0 голосов
0 ответов

У меня есть фрейм данных df >>> df = spark.createDataFrame([[1,0], [2,1], [3,1], [4,0], [5...

Clock Slave / 27 ноября 2018
0 голосов
1 ответ

В Spark этот json находится в фрейме данных (DF), теперь нам нужно перейти к таблицам (в json на...

swcraft / 27 ноября 2018
0 голосов
1 ответ

Я программно пытаюсь преобразовать типы данных столбцов и сталкиваюсь с некоторыми проблемами...

Leothorn / 27 ноября 2018
0 голосов
0 ответов

У меня есть следующий журнал 2015-07-22T09:00:28.019143Z,marketpalce-shop,263.242.248.130:54635,10

San / 27 ноября 2018
0 голосов
2 ответов

Допустим, у меня есть такая таблица: A,B 2,6 1,2 1,3 1,5 2,3 Я хочу отсортировать ее по возрастанию...

kello / 27 ноября 2018
0 голосов
0 ответов

Моя схема выглядит следующим образом root |-- source: string (nullable = true) |-- results: array...

suprita shankar / 27 ноября 2018
0 голосов
3 ответов

У меня есть такой файл журнала.Я хочу создать DataFrame в Scala. 2015-05-13T23:39:43.945958Z...

San / 26 ноября 2018
0 голосов
1 ответ

Я пытаюсь получить строки с нулевыми значениями из фрейма данных pyspark.В пандах я могу добиться...

dg S / 26 ноября 2018
0 голосов
0 ответов

Я хотел бы знать, возможно ли определить логику репликации, чтобы перетасовать блоки без...

minsky / 26 ноября 2018
0 голосов
1 ответ

Я проходил этот билет и не мог понять, поддерживает ли Spark UDT в версии 2.3+ на любом языке...

Suny Tyagi / 26 ноября 2018
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...