Вопросы с тегом апаш-искровой SQL - PullRequest

Вопросы с тегом апаш-искровой SQL

3 голосов
1 ответ

У меня есть два кадра данных: левый и правый.Они одинаковы и состоят из трех столбцов: src relation...

moudi / 19 марта 2019
4 голосов
2 ответов

Предположим, у меня есть два секционированных фрейма данных: df1 = spark.createDataFrame( [(x,x,x)...

Artem Bergkamp / 18 марта 2019
0 голосов
1 ответ

У меня есть 2 кадра данных.Я хочу взять разные значения одного столбца и связать его со всеми...

Techie / 18 марта 2019
1 голос
1 ответ

Я сталкиваюсь со странным исключением, когда пытаюсь создать набор данных и просто собирать из него...

RLM / 18 марта 2019
1 голос
3 ответов

Фрейм входных данных не всегда может содержать все столбцы.В SQL или SCALA я хочу создать оператор...

touelv / 18 марта 2019
3 голосов
1 ответ

Я обнаружил неожиданный дисковый ввод-вывод (всплеск DISKBUSY) после того, как все мои задачи...

Lyu Chenghao / 18 марта 2019
1 голос
1 ответ

Я новичок в Spark, и у меня проблема с фреймом данных. Мне нужно сгруппировать уникальные...

Rodrigo López / 18 марта 2019
0 голосов
1 ответ

Я новичок в Spark, извините, если этот вопрос кажется вам легким. Я пытаюсь найти решение, подобное...

mjat1 / 17 марта 2019
0 голосов
0 ответов

Я пытаюсь разделить мои данные на обучающие и тестовые наборы, но они не работают должным образом,...

A-ar / 17 марта 2019
0 голосов
1 ответ

Я удаляю фактические имена столбцов, поскольку я не должен делиться ими Но ее проблеск ошибки...

prasanna kumar / 17 марта 2019
0 голосов
1 ответ

Мы хотим перейти на последнюю версию spark и scala. Я довольно новичок в scala и хочу знать, как...

user8617180 / 17 марта 2019
1 голос
1 ответ

У меня есть набор данных со многими полями, и одно из полей «valuefieldname» является столбцом...

Remis Haroon / 17 марта 2019
1 голос
1 ответ

У меня есть буквенно-цифровой столбец с именем «Результат», который я хочу разбить на 4 различных...

thecoder / 17 марта 2019
1 голос
0 ответов

Я установил параметры сжатия в SparkConf следующим образом: sparkConf.set("spark.sql.parquet

nir / 16 марта 2019
1 голос
0 ответов

Я перезаписываю существующий паркетный раздел apache spark 2.2 каждый раз, когда появляется запрос...

nir / 16 марта 2019
1 голос
0 ответов

USECASE: Я хочу загрузить коллекцию Arango, которая может заранее вывести схему данных без указания...

Rks / 16 марта 2019
0 голосов
2 ответов

У меня есть 2 кадра данных PySpark. 2-й кадр данных состоит из IP-адреса, 1-й кадр данных имеет 3...

vishwajeet / 16 марта 2019
2 голосов
1 ответ

Я пытаюсь получить записи из таблицы мэйнфреймов, используя spark sql context с приведенным ниже...

Biplab / 16 марта 2019
1 голос
1 ответ

Я отправляю следующий файл json по пути "/ home / host / test", чтобы программа могла перехватить...

Bar / 16 марта 2019
0 голосов
0 ответов

Я пытаюсь оптимизировать одну программу с помощью Spark SQL, эта программа в основном представляет...

BiS / 15 марта 2019
0 голосов
0 ответов

Я пытаюсь лемматизировать данные. шаг 1 :: Я читаю фрейм данных с двумя столбцами с ключом и...

Mhavir Teraiya / 15 марта 2019
0 голосов
0 ответов

Я получил ошибку в Pyspark: AnalysisException: u'Resolved attribute(s) week#5230 missing from...

Qubix / 15 марта 2019
0 голосов
1 ответ

Я пытаюсь работать с фреймами данных pyspark и хотел бы узнать, как можно создать и заполнить новый...

Shanbog Shashank / 15 марта 2019
1 голос
0 ответов

У меня есть фрейм данных с именами столбцов: DF1: +------------+ | colsNames| +------------+ |col1...

DevInTrouble / 14 марта 2019
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...