Вопросы с тегом pyspark - PullRequest

Вопросы с тегом pyspark

0 голосов
1 ответ

Я конвертирую свой код sklearn в pyspark, я смог сделать это с помощью ссылки....

user3661384 / 30 ноября 2018
0 голосов
0 ответов

Мне нужно перебрать кадр данных в PySpark 16 раз. Без PySpark задача выполняется быстро, но с...

Rafael Ribeiro / 30 ноября 2018
0 голосов
0 ответов

Best В данный момент я экспериментирую с pyspark 2.3.2.И я хотел бы сдвинуть столбец на основе...

Dieter / 30 ноября 2018
0 голосов
3 ответов

У меня есть корзина s3 с разделенными данными, лежащими в основе Афины.Используя Афину, я вижу, что...

Thom Rogers / 30 ноября 2018
0 голосов
1 ответ
0 голосов
0 ответов

Мне нужно удалить дубликаты уровня строки из набора данных, нужно знать, является ли...

megha raina / 30 ноября 2018
0 голосов
0 ответов

Я пытаюсь создать кластер EMR (через командную строку) и дать ему файл загрузочных действий и файл...

bill / 30 ноября 2018
0 голосов
0 ответов

Я читаю df для запуска и собираюсь применить функцию для извлечения данных из столбца, который...

VincFort / 30 ноября 2018
0 голосов
1 ответ
0 голосов
1 ответ

У меня есть функция test (), которая возвращает список кортежей, и конечная цель - напечатать в...

Marco / 30 ноября 2018
0 голосов
1 ответ

Чтение файла фиксированной ширины в Spark легко, и для этого есть несколько способов.Однако я не...

Naren / 30 ноября 2018
0 голосов
0 ответов

У меня есть паркетные каталоги, названные так: parquetNames = [NAME1,NAME1_MS,NAME2, NAME2_MQ] Я...

xv70 / 30 ноября 2018
0 голосов
0 ответов

У меня есть функция, которая вычисляет что-то и возвращает список кортежей, это выглядит так: def...

Marco / 30 ноября 2018
0 голосов
1 ответ

У меня есть список json файлов в Databricks , и я пытаюсь прочитать каждый json , извлечь...

oikonang / 29 ноября 2018
0 голосов
0 ответов

Я пытаюсь запустить приложение PySpark.команда spark submit выглядит примерно так. spark-submit...

Riyan Mohammed / 29 ноября 2018
0 голосов
0 ответов

Я использую spark-xml 0.1.1-s_2.11 в Apache Spark 2.3.1, Scala 2.11 (блоки данных Azure) Я загрузил...

Aedna / 29 ноября 2018
0 голосов
1 ответ

Я использую новый pandas_udf PySpark-декоратор и пытаюсь заставить его взять несколько столбцов в...

SARose / 29 ноября 2018
0 голосов
1 ответ

У меня есть данные / строки из нескольких пар ключ / значение с неизвестным количеством ключей -...

ghukill / 29 ноября 2018
0 голосов
1 ответ

Проблема: у меня 2 кадра данных; У df1 есть coil_id, sample_factor, seq.Каждый идентификатор...

Abhinavneni / 29 ноября 2018
0 голосов
0 ответов

Я пытаюсь отфильтровать сеансы GA в PySpark на основе пользовательских размеров.Данные похожи на...

dlmonteirog / 29 ноября 2018
0 голосов
2 ответов

У меня есть пустой массив в pyspark, и я хотел бы преобразовать его в DataFrame, чтобы я мог...

Taylrl / 29 ноября 2018
0 голосов
1 ответ

Я хочу преобразовать столбец отметки времени, который содержит время эпохи, в дату и время...

Sun / 29 ноября 2018
0 голосов
1 ответ

чтение файла паркета с помощью spark df = spark.read.parquet("path_to_file") df.show(2)...

Tushar Kolhe / 29 ноября 2018
0 голосов
1 ответ

У меня есть код, который преобразует потоковые данные Pyspark в dataframe.Мне нужно сохранить этот...

ariun ariun / 29 ноября 2018
0 голосов
1 ответ

Я создал искровой фрейм данных, считывающий csv из местоположения hdfs. emp_df = spark.read

vikrant rana / 29 ноября 2018
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...