Вопросы с тегом апаш-искровой SQL - PullRequest

Вопросы с тегом апаш-искровой SQL

0 голосов
2 ответов

Я пытаюсь преобразовать RDD [(String, Map [String, Int])] в RDD [String, String, Int] и в конечном...

Rasika / 29 августа 2018
0 голосов
2 ответов

У меня есть датафрейм, и он был импортирован из mysql dataframe_mysql.show()...

Rajkiran / 29 августа 2018
0 голосов
2 ответов

У меня есть таблица в улье, и я читаю эту таблицу в pyspark df_sprk_df from pyspark import...

Shivpe_R / 29 августа 2018
0 голосов
1 ответ

Я относительно новичок в PySpark. Я пытался кэшировать данные 30 ГБ, потому что мне нужно выполнить...

lU5er / 29 августа 2018
0 голосов
1 ответ

Мне нужно обработать фрейм данных, содержащий логи (вход и выход) для приложения Данные приведены...

Purmanund Sookun / 29 августа 2018
0 голосов
1 ответ

Я использую Spark DataFrame для чтения текстового файла, и каждая строка разделяется одним пробелом...

DuFei / 29 августа 2018
0 голосов
1 ответ

Когда я пытаюсь установить зависимость пакета "spark-sftp" в моей конфигурации Spark, я получаю...

Manideep / 29 августа 2018
0 голосов
1 ответ

У меня есть искровой фрейм данных, ради аргумента давайте возьмем его: val df = sc.parallelize(...

Paul / 28 августа 2018
0 голосов
4 ответов

Я пытаюсь создать фрейм данных с одной строкой, значения которой равны нулю. val df = Seq(null...

Achyuth / 28 августа 2018
0 голосов
2 ответов

В Spark 2.2 была включена опция Оптимизатора затрат. Документация говорит, что нам нужно...

Prashant / 28 августа 2018
0 голосов
1 ответ

Я пытаюсь написать метод (который будет выполняться через исполнителя), который будет возвращать...

Nikita Poberezkin / 28 августа 2018
0 голосов
0 ответов

Я анализировал разработанный код. Я нашел что-то вроде этого. val newDF = df.repartition(1)

Dasarathy D R / 28 августа 2018
0 голосов
1 ответ
0 голосов
2 ответов

Я пытаюсь запустить sql-запрос hive в приложении spark scala и получаю следующую ошибку «Нет плана...

Ievgen Guliaiev / 28 августа 2018
0 голосов
1 ответ

Есть ли способ выбрать всю строку в виде столбца для ввода в фильтр Pyspark udf? У меня есть...

user2399973 / 28 августа 2018
0 голосов
1 ответ
0 голосов
0 ответов

Я конвертирую Java-пакеты в Spark, используя Java язык. Существующий код приложения содержит...

Raj / 28 августа 2018
0 голосов
2 ответов

У меня есть датафрейм, состоящий из двух массивов двойных чисел. Я хотел бы создать новый столбец,...

user124123 / 28 августа 2018
0 голосов
0 ответов

У меня есть ситуация, когда я начинаю с озера данных (1 ТБ), и у меня достаточно эвристики для...

Renée / 28 августа 2018
0 голосов
2 ответов

У меня есть такой фрейм данных: rdd1 = sc.parallelize([(100,2,1234.5678),(101,3,1234.5678)]) df =...

vishnu ram / 28 августа 2018
0 голосов
0 ответов

Я использую структурированную потоковую передачу в формате spark для чтения темы kafka и хочу...

Nikul Patel / 27 августа 2018
0 голосов
2 ответов

Когда я записываю фрейм данных, скажем, в csv, файл .csv создается для каждого раздела. Предположим...

Paul Reiners / 27 августа 2018
0 голосов
1 ответ

Я пытаюсь масштабировать конвейер структурированной потоковой передачи с помощью API-интерфейса...

Sean O / 27 августа 2018
0 голосов
1 ответ

Я работаю с фреймом данных root |-- c: long (nullable = true) |-- data: array (nullable = true) |...

Chaouki / 27 августа 2018
0 голосов
0 ответов

Возможно получить доступ к сеансу искры, созданному работающим сервером Spark Thrift. Я создал...

Deepak Rawat / 27 августа 2018
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...