Вопросы с тегом апаш-искровой-SQL - PullRequest

Вопросы с тегом апаш-искровой-SQL

0 голосов
1 ответ

У меня есть набор данных с примерно 500 тысячами строк и 20 столбцами. Данные разбиты на уровни,...

JBoy / 25 октября 2019
0 голосов
1 ответ

REGEXP_INSTR Функция: выполняет поиск в строке шаблона регулярного выражения и возвращает целое...

AWSGeekCoder / 25 октября 2019
0 голосов
1 ответ

Я использую spark 1.6.3 и пытаюсь сохранить rdd как textFile, но получаю следующую ошибку. pRdd =...

tarun / 25 октября 2019
0 голосов
1 ответ

Если я создаю Dataframe следующим образом: val usersDF = spark.read

Gadam / 25 октября 2019
0 голосов
1 ответ

Фон У меня есть кадр данных, который выглядит следующим образом:...

Saining Li / 25 октября 2019
0 голосов
1 ответ

Я новичок в искре. Я передаю файлы журнала в следующем формате на порт 9999 - 2019-09-15 23:45:37...

Aniruddha Tekade / 24 октября 2019
0 голосов
0 ответов

Для данного сценария я хочу отфильтровать наборы данных в структурированной потоковой передаче в...

anz / 24 октября 2019
0 голосов
0 ответов

У меня есть следующие столбцы, которые я хочу выбрать динамически. поэтому у меня есть val...

whoisthis / 24 октября 2019
0 голосов
2 ответов

Я попытался округлить двойное значение без десятичных точек в кадре данных искры, но на выходе...

Antony / 24 октября 2019
0 голосов
1 ответ

Я выполняю следующую команду Redshift SQL, используя оператор POSIX (~) для сопоставления с...

AWSGeekCoder / 24 октября 2019
0 голосов
2 ответов

Я хочу сделать следующее: У меня есть DataFrame с двумя столбцами (ID, отметка времени), обе строки...

tenorules / 24 октября 2019
0 голосов
1 ответ

У меня есть небольшой DF, который довольно дорог для вычисления. Затем я широковещательно...

Terry Dactyl / 24 октября 2019
0 голосов
1 ответ

У меня есть требование генерировать строки, по 1 строке на каждый месяц, который происходит между 2...

marie20 / 24 октября 2019
2 голосов
1 ответ
0 голосов
1 ответ

Я использую Hive (2.1.1) hook, как показано ниже: set hive.exec.post.hooks=com.test

Bo.hai / 24 октября 2019
1 голос
0 ответов

Недавно я внес некоторые пользовательские изменения в модуль катализатора Spark SQL, чтобы избежать...

Bostonian / 24 октября 2019
0 голосов
1 ответ

У меня довольно большая таблица, которая содержит коды ICD10 (icd10_table). Я хочу получить кучу...

David / 23 октября 2019
0 голосов
0 ответов

Я использую кластер Spark K-means на кластерах AWS EMR. Набор данных содержит 10 ^ 7 строк и 9...

Christopher Ferris / 23 октября 2019
0 голосов
0 ответов
0 голосов
0 ответов

Опция "maxRecordsPerFile", похоже, не работает, когда я использую распакованный список файлов для...

Shankar / 23 октября 2019
1 голос
2 ответов

Учитывая два искровых фрейма данных A и B с одинаковым количеством столбцов и строк, я хочу...

mobupu / 23 октября 2019
0 голосов
1 ответ

Я пытаюсь использовать функцию regex_extract, чтобы получить последние три цифры в строке...

Rusty / 23 октября 2019
0 голосов
0 ответов

Хотя существуют разные способы обработки текстовых файлов с различными полями и разделителями строк

sanjeev kumar / 23 октября 2019
0 голосов
1 ответ

Невозможно разделить столбец на несколько столбцов в кадре данных Spark и с помощью RDD. Я...

user11789810 / 23 октября 2019
0 голосов
2 ответов

Я работаю над этим проектом PySpark, и когда я пытаюсь что-то вычислить, я получаю следующую...

Miruna Pîrvulescu / 23 октября 2019
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...