Вопросы с тегом апаш-искровой SQL - PullRequest

Вопросы с тегом апаш-искровой SQL

0 голосов
0 ответов

У меня есть данные временных рядов в PySpark DataFrame. Каждому из моих сигналов (столбец value)...

user200017 / 08 ноября 2018
0 голосов
2 ответов

Я читаю csv-файл в Spark DataFrame и определяю имена столбцов на основе заголовка cvs-файла: val df...

alexanoid / 08 ноября 2018
0 голосов
3 ответов

Мне нужно перебрать кадр данных в определенном порядке и применить некоторую сложную логику для...

Dr Y Wit / 08 ноября 2018
0 голосов
1 ответ

Я пишу это, так как не могу найти ответ на эту проблему.Я использую PySpark и запускаю скрипт, за...

CodeGeek123 / 08 ноября 2018
0 голосов
0 ответов

Как получить токены ---- количество [a, b, c] ---- [29,3,76] из словаря искры CountVectorizer?

yang yang / 08 ноября 2018
0 голосов
1 ответ

Линия: df.withColumn("test", expr("concat(lon, lat)")) работает как положено,...

Kyunam / 08 ноября 2018
0 голосов
2 ответов

У меня есть фрейм данных joinDf, созданный путем объединения следующих четырех фреймов данных на...

dreddy / 08 ноября 2018
0 голосов
3 ответов

мой вопрос о том, как получить доступ к таблице ACE HIVE в Spark sql?

aniket kale / 08 ноября 2018
0 голосов
0 ответов

Я знаю, что DataFrames в Spark поддерживают динамическое разбиение. Какой-то пост, где я узнал об...

abc123 / 07 ноября 2018
0 голосов
1 ответ

У меня есть датафрейм (mydf): +---+---+---+---+ | F1| F2| F3| F4| +---+---+---+---+ | t| y4| 5|1.0|...

user3243499 / 07 ноября 2018
0 голосов
0 ответов

Я немного запутался: У меня есть скрипт ниже. Я преобразовал искровой DF в Pandas DF для выполнения...

kikee1222 / 07 ноября 2018
0 голосов
0 ответов

У меня есть слушатель искры, как показано ниже; public class MySparkListener extends SparkListener...

Robin Kuttaiah / 07 ноября 2018
0 голосов
1 ответ

У меня есть Spark DataFrame следующим образом: F1 F2 F3 x y n1 x z n2 x a n3 x b n4 t y n5 t y2 n6...

user3243499 / 07 ноября 2018
0 голосов
1 ответ

У меня есть фрейм данных pyspark, подобный следующему: +--------+--------+-----------+ | col1 |...

ywat / 07 ноября 2018
0 голосов
1 ответ

привет, у меня уже есть датафрейм: df_init со всеми столбцами: A|B|C|D Я получаю JSON, как:...

Catanzaro / 06 ноября 2018
0 голосов
1 ответ

У меня следующая ситуация: у меня есть фрейм данных с «id» и «array» в качестве схемы. Теперь я...

Sedir Mohammed / 06 ноября 2018
0 голосов
0 ответов

Я пытаюсь преобразовать DataSet в объект Java. Схема похожа на root |-- deptId: long (nullable =...

Aslan / 06 ноября 2018
0 голосов
0 ответов

Ошибка ниже, при сохранении фрейма данных в виде таблицы в режиме партера, перед тем, как...

ShuBham ShaRma / 06 ноября 2018
0 голосов
0 ответов
0 голосов
0 ответов

В моей работе pyspark я пытаюсь создать временную таблицу, используя предложение LIKE, как показано...

barath / 06 ноября 2018
0 голосов
0 ответов

Spark SQL вызывает Hive для преобразования и создает ошибку таблицы в режиме YARN в кластере...

Sumit Khurana / 06 ноября 2018
0 голосов
1 ответ

В: Как мне записать в Cassanrda только столбцы со значениями из Spark DataFrame и сделать это...

drobin / 05 ноября 2018
0 голосов
1 ответ

Мне нужно перебрать кадр данных в определенном порядке и применить некоторую сложную логику для...

Dr Y Wit / 05 ноября 2018
0 голосов
1 ответ

У меня есть файл, который содержит такие записи, как, Ввод (необработанная запись журнала): 50.57

Veeresh / 05 ноября 2018
0 голосов
1 ответ

У меня есть фрейм данных pyspark, и я хотел бы разделить одну строку на другую в группах. Внутри...

LN_P / 05 ноября 2018
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...