Вопросы с тегом апаш-искровой SQL - PullRequest

Вопросы с тегом апаш-искровой SQL

0 голосов
1 ответ

Я пытаюсь отфильтровать фрейм данных Pyspark на основе списка кортежей временных отметок [(start1,...

quantum / 02 сентября 2018
0 голосов
2 ответов

У меня есть фрейм данных, как показано ниже, столбец uinfo - это массив, и я хочу иметь условие...

user3607698 / 02 сентября 2018
0 голосов
2 ответов

давайте предположим, что у меня есть следующая искра фрейм данных : ----------------------- |...

A.HADDAD / 02 сентября 2018
0 голосов
1 ответ

Я пытаюсь объединить несколько таблиц улья, используя spark, где некоторые столбцы с одинаковыми...

Harsh Jangid / 01 сентября 2018
0 голосов
0 ответов

У меня есть CSV-файл, который содержит данные типа карты и данные типа массива в соответствующих...

Naveen / 01 сентября 2018
0 голосов
1 ответ

У меня есть данные с SQL Server, которыми я должен манипулировать в Apache Spark (блоки данных). В...

Pittsburgh DBA / 01 сентября 2018
0 голосов
0 ответов

Я пытаюсь выполнить следующий запрос ниже (для таблиц Hive), но по какой-то причине он зависает еще...

Tomasz Krol / 01 сентября 2018
0 голосов
1 ответ

Я написал следующий код для подачи данных в алгоритм машинного обучения в Spark 2.3. Код ниже...

Adeel Hashmi / 31 августа 2018
0 голосов
1 ответ

У меня большой набор данных со значительно большим количеством столбцов (150), я хочу применить...

Masterbuilder / 31 августа 2018
0 голосов
1 ответ
0 голосов
0 ответов

Я использую PySpark 2.2.1 и пытаюсь StandardScale значения своих функций через spark StandardScaler

Adam Bacon / 31 августа 2018
0 голосов
0 ответов

Кажется, что все эти функции выполняют довольно похожие операции. OneHotEncoderEstimator в...

Keshinko / 30 августа 2018
0 голосов
4 ответов

У меня есть несколько таблиц. Я хотел бы присоединиться против. Я хочу видеть записи, в которых...

Josh / 30 августа 2018
0 голосов
1 ответ

Я использую метод каталога для чтения данных из hbase и сохранения их в фрейме данных, используя...

user2232840 / 30 августа 2018
0 голосов
3 ответов

У меня есть фрейм данных 'regexDf', как показано ниже id,regex 1,(.*)text1(.*)text2(.*)text3(

Mohan / 30 августа 2018
0 голосов
0 ответов

У меня есть простая программа Spark-SQL-Kafka, которая читает из Kafka и пишет в HDFS. Для проверки...

Manjesh / 30 августа 2018
0 голосов
1 ответ

У меня есть датафрейм с несколькими продуктами для каждой даты по клиенту. В новой колонке я...

akhil sood / 30 августа 2018
0 голосов
2 ответов

Я новичок в Spark и примеряю руки. В настоящее время у меня есть схема, с помощью которой я...

user3243499 / 30 августа 2018
0 голосов
2 ответов

У меня есть фрейм данных, который содержит огромное количество записей. В этом DF запись может...

Krish / 30 августа 2018
0 голосов
0 ответов

У меня есть рабочая искровая работа, написанная с помощью JavaRDD. Теперь я хочу переместить вывод...

Golak Sarangi / 30 августа 2018
0 голосов
1 ответ

Я хочу объединить несколько столбцов ArrayType [StringType] в spark, чтобы создать один ArrayType...

Neelesh Sambhajiche / 30 августа 2018
0 голосов
3 ответов

Я запускаю spark job в кластере, который имеет 2 рабочих узла! Я использую код ниже (искра Java)...

Omkar / 30 августа 2018
0 голосов
1 ответ

Я хочу понять, как лучше всего решать проблемы, связанные с датами, в spark SQL. Я пытаюсь решить...

Gurupraveen / 30 августа 2018
0 голосов
0 ответов

Использование внешнего стола У процесса нет разрешений на запись в /home/user/.Trash вызов "insert...

sami / 29 августа 2018
0 голосов
1 ответ

У меня есть PySpark DataFrame со столбцами people и timestamp (плюс дополнительные столбцы, которые...

RaspyVotan / 29 августа 2018
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...