Вопросы с тегом апаш-искровой SQL - PullRequest

Вопросы с тегом апаш-искровой SQL

0 голосов
1 ответ

Я пытаюсь использовать Spark SQL из Scala IDE, который я установил без Maven. У меня Spark 1.5.1 в...

Adeel Umer / 03 апреля 2019
0 голосов
1 ответ

У меня есть следующий искровой фрейм данных: from pyspark.sql import SparkSession spark =...

Sascha / 03 апреля 2019
0 голосов
1 ответ

У меня есть dataFrame unionDataDF с образцами данных +---+------------------+----+ | id| data| key|...

user811602 / 03 апреля 2019
0 голосов
1 ответ

У меня есть искровой фрейм данных с 3 столбцами, которые указывают положения атомов. I-e Положение...

Usman Khan / 03 апреля 2019
0 голосов
0 ответов
0 голосов
1 ответ

следующий код: from pyspark import * from pyspark.sql import * spark=SparkContext()...

Toshirro / 03 апреля 2019
0 голосов
1 ответ

Я пытаюсь использовать Spark для обработки CSV-файла в кластере. Я хочу понять, нужно ли мне явно...

sid / 03 апреля 2019
0 голосов
1 ответ

У меня есть следующие данные в Улей: id sequence app time1 time2 first_d_seq last_d_seq 2456 1 a...

Isaac / 03 апреля 2019
0 голосов
1 ответ

У меня есть события с "id and Map[String, List]" данными. Я группирую эти данные по id....

ogma / 02 апреля 2019
0 голосов
1 ответ

Как я могу объединить массив в фрейм данных, содержащий колонны [a, b, c, d, e] root |-- arry:...

J-kram / 02 апреля 2019
0 голосов
1 ответ

Я пытаюсь этот пример: https://backtobazics.com/big-data/spark/apache-spark-aggregatebykey-example/...

Shyam / 02 апреля 2019
0 голосов
1 ответ

Я хочу смонтировать ведро s3 через DBFS, и ни в одном из этих руководств не указано, какие...

hey_you / 02 апреля 2019
1 голос
2 ответов
0 голосов
1 ответ

Я пытаюсь прочитать файл Excel с помощью Spark CLI, но получаю сообщение об ошибке «org.apache.poi

Lucky Singh Shekhawat / 02 апреля 2019
0 голосов
1 ответ

Мне нужно получить среднее значение и количество для данного кадра данных, а также получить ранее...

Shyam / 02 апреля 2019
1 голос
2 ответов
1 голос
0 ответов

Как получить нулевые значения в json после преобразования Dataframe в строку Json в spark Я пытался...

ashish sharma / 02 апреля 2019
0 голосов
0 ответов
0 голосов
0 ответов

Моя искровая работа: def saveCount(spark: SparkSession, cnt: Long): Unit = { val fs = FileSystem

BAE / 02 апреля 2019
0 голосов
2 ответов

У меня есть следующий предикат соединения Apache Spark SQL: t1.field1 = t2.field1 and t2.start_date...

alexanoid / 01 апреля 2019
1 голос
2 ответов

У меня есть несколько CSV-файлов, которые я хочу загрузить в таблицу кустов, моя проблема в том,...

Faizan Mohammad / 01 апреля 2019
2 голосов
0 ответов

Я работаю над настройкой компьютеров EC2 с автономным кластером Spark, Hive, Apache Ranger.Улей...

Marsi / 01 апреля 2019
2 голосов
1 ответ

Я хотел бы добавить (добавить) новый столбец к существующему фрейму данных с несколькими столбцами....

Sankar / 01 апреля 2019
2 голосов
1 ответ

Я пытаюсь изменить версию spark 2.2.1 на 2.4.0 В спарке 2.2, после работало нормально. val query =...

Hacking J / 31 марта 2019
0 голосов
1 ответ

Как я могу получить все имена массивов в Dataframe? Проблема в том, что я пытаюсь взорвать ВСЕ...

J-kram / 30 марта 2019
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...