Вопросы с тегом апаш-искровой SQL - PullRequest

Вопросы с тегом апаш-искровой SQL

0 голосов
1 ответ

Этот вопрос является продолжением этого ответа .Spark отображает ошибку, когда возникает следующая...

funseiki / 21 января 2019
0 голосов
1 ответ

Я читаю искру CSV. Я предоставляю схему для файла, который я читаю, и я читаю его в разрешающем...

MitakaJ9 / 21 января 2019
0 голосов
1 ответ

Я пытаюсь закодировать данные, используя SHA-256, передавая их в качестве аргумента в Spark UDF, но...

Kiran / 21 января 2019
0 голосов
3 ответов

У меня есть небольшой автономный кластер spark с динамическим распределением ресурсов, который...

levi / 21 января 2019
0 голосов
2 ответов

У меня есть два Spark DataFrames: cities DataFrame со следующим столбцом: city ----- London Austin...

alexanoid / 21 января 2019
0 голосов
2 ответов
0 голосов
1 ответ

Я написал простую программу, которая запрашивает огромную базу данных.Чтобы экспортировать мой...

salamanka44 / 21 января 2019
0 голосов
1 ответ

Column Names Production_uint_id,batch_id,items_produced,items_discarded Data: P188 gv962...

vishal kumar / 21 января 2019
0 голосов
1 ответ

Я новичок в распределенной разработке Spark.Я пытаюсь оптимизировать существующее задание Spark,...

codeshark / 21 января 2019
0 голосов
2 ответов

У меня есть датафрейм Pandas. Я попытался сначала объединить два столбца, содержащих строковые...

Falconic / 21 января 2019
0 голосов
2 ответов

У меня есть файл формата csv, и он разделен символом разделителя "|".И набор данных имеет 2 столбца...

Arpan / 21 января 2019
0 голосов
0 ответов

У меня есть фрейм данных, который содержит данные ниже, столбец test_data содержит тип данных...

user1058122 / 20 января 2019
0 голосов
1 ответ

Я использовал spark-sql-kafka-0-10 для чтения партии из Кафки с Spark 2.4 и scala 2.11.12.Таким...

Moein Hosseini / 20 января 2019
0 голосов
1 ответ

Пример ввода (черный текст) и Вывод (красный текст) У меня есть DataFrame (один в черном), как я...

Sarfaraz Hussain / 20 января 2019
0 голосов
1 ответ

У меня есть фрейм данных Spark с одним отсутствующим и одним неправильным значением. from pyspark

Jason / 20 января 2019
0 голосов
1 ответ

У меня есть поле DataFrame, которое является Seq[Seq[String]] Я построил UDF для преобразования...

kingledion / 19 января 2019
0 голосов
1 ответ

Я читаю файл seq json из HDFS, используя искру, как это: val data = spark.read.json(spark

GothamGirl / 19 января 2019
0 голосов
1 ответ

Задача состояла в том, чтобы вывести всех руководителей сотрудников на уровень выше в Spark....

San / 19 января 2019
0 голосов
2 ответов

Есть ли лучший способ написать фильтр из нескольких условий, которые похожи по своей природе на...

Vikas J / 19 января 2019
0 голосов
1 ответ

Вот мой пример my_df <- data.frame(letters_col = sample(letters, 50, replace = TRUE),...

Mouad_S / 18 января 2019
0 голосов
0 ответов

Я использую Spark 2.4.0 в кластере AWS. Целью является ETL, и он в значительной степени основан на...

dagspark / 18 января 2019
0 голосов
2 ответов

Я читаю все один за другим файлы, которые хранятся в структуре каталогов как YY=18/MM=12/DD=10 и...

Ravi Anand Vicky / 18 января 2019
0 голосов
1 ответ

У меня есть таблица, как показано ниже Я хочу добавить столбец seq_group справа на основе значения...

Krishna Sangeeth K S / 18 января 2019
0 голосов
2 ответов

Я не понимаю, как я могу объединить 2 таких DataFrame друг с другом. Первый DataFrame хранит...

Nurzhan Nogerbek / 18 января 2019
0 голосов
2 ответов

У меня есть такой фрейм данных: +-----+---------+---------+ |Categ| Amt| price|...

freefrog / 18 января 2019
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...