Вопросы с тегом апаш-искровой SQL - PullRequest

Вопросы с тегом апаш-искровой SQL

0 голосов
0 ответов

У меня есть настройка Zeppelin, и я пишу некоторые работы в блокноте.Во время их запуска я...

Chris Mejka / 14 декабря 2018
0 голосов
0 ответов

Я пытаюсь подключиться к базе данных Databricks, которая работает в другом кластере.Я искал даже в...

Vidya Sekar / 14 декабря 2018
0 голосов
1 ответ

Мы получаем ошибку при добавлении следующей строки char(13) в pyspark concat Ниже приведен пример...

Vinay Agarwal / 14 декабря 2018
0 голосов
1 ответ

Я смотрю на пример книги, похожий на следующий (практически идентичный): >>> from pyspark

NYCeyes / 14 декабря 2018
0 голосов
1 ответ

У меня есть файл данных csv, как указано ниже, каждая строка завершается возвратом каретки ('\ r') ...

Chirag Karnawat / 13 декабря 2018
0 голосов
3 ответов

Я использую искру на scala. И у меня есть несколько пустых строк в Rdd.Мне нужно удалить их из Rdd....

Patty / 13 декабря 2018
0 голосов
4 ответов

Я пытаюсь создать линию данных, в которой несоответствующие данные сохраняются в паркете, и я...

Ajith Kannan / 13 декабря 2018
0 голосов
1 ответ

у меня есть кадр данных из обрабатывающей части, выглядит следующим образом:...

SimbaPK / 13 декабря 2018
0 голосов
1 ответ

Как можно вычислить количество уникальных элементов в каждом столбце кадра данных pyspark: import...

Konstantin / 13 декабря 2018
0 голосов
2 ответов

Я пытаюсь преобразовать RDD в DataFrame в Spark Streaming.Я слежу за процессом ниже. socket_stream...

LUZO / 13 декабря 2018
0 голосов
5 ответов

Я бы хотел найти все строки, в которых product_id имеет как минимум 3 отзыва (review_id). Так что...

user / 13 декабря 2018
0 голосов
1 ответ

Это примерно transform функция высшего порядка (https://issues.apache.org/jira/browse/SPARK-23908)....

MitakaJ9 / 13 декабря 2018
0 голосов
0 ответов

Я вижу, что приведенный ниже запрос CTAS завершился неудачно в HIVE: - CREATE EXTERNAL table...

Shubham Aggarwal / 13 декабря 2018
0 голосов
1 ответ

Я выполнил задание, используя spark-submit, в то время как мы потеряли исполнителя и определенную...

G Sreenathreddy / 13 декабря 2018
0 голосов
0 ответов
0 голосов
0 ответов
0 голосов
0 ответов

Скажем, у меня есть столбец отсортированных временных меток в кадре данных.Я хочу написать функцию,...

user3685285 / 13 декабря 2018
0 голосов
3 ответов

У меня есть два строковых столбца, разделенных запятыми (sourceAuthors и targetAuthors). val df =...

itgtzortz / 13 декабря 2018
0 голосов
1 ответ

Это пример файла JSON.Я хочу сделать это в целом, например, если у меня есть корневые теги, то как...

Sayan Sahoo / 12 декабря 2018
0 голосов
1 ответ

У меня есть один или несколько CSV-файлов, которые мне нужно объединить в pyspark: файл 1: c1,c2,c3...

user1997656 / 12 декабря 2018
0 голосов
1 ответ

У меня есть сценарий, в котором датафрейм имеет data_date, как показано ниже root |-- data_date:...

Shyam / 12 декабря 2018
0 голосов
1 ответ

Я импортировал JSON-файл из хранилища BLOB-объектов, размер которого составляет около 50 ГБ....

Thomas Hahn / 12 декабря 2018
0 голосов
4 ответов

У меня есть фрейм данных, к которому я применил filter условие val colNames = customerCountDF

coder_enthusiast / 12 декабря 2018
0 голосов
2 ответов

У меня есть фрейм данных, скажем DF Animal ====== Cat Dog Horse Я хочу повторить эти значения и...

Apurw / 12 декабря 2018
0 голосов
1 ответ

У меня есть датафрейм, имеющий миллион записей.Это выглядит так - df.show()...

ashish14 / 12 декабря 2018
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...