Вопросы с тегом апаш-искровой SQL - PullRequest

Вопросы с тегом апаш-искровой SQL

0 голосов
1 ответ

Я работаю над некоторым назначением, где у нас есть две таблицы с одинаковыми / разными столбцами....

Rateri / 05 апреля 2019
0 голосов
1 ответ

Я новичок в Spark, и у меня есть Apache SparkSQL DataFrame df с 4 столбцами, имеющий следующую...

Pontus / 05 апреля 2019
1 голос
1 ответ

Я запускаю искровую оболочку с искрой 2.3.1 со следующими параметрами:...

Kamrus / 05 апреля 2019
0 голосов
0 ответов

Я пытаюсь подключиться к Hive с помощью Spark-SQL, но не могу прочитать таблицы из улья. Версия...

vasanth sonu / 05 апреля 2019
1 голос
1 ответ

У меня очень широкий df с большим количеством столбцов.Мне нужно получить количество ненулевых...

NITS / 05 апреля 2019
1 голос
1 ответ

Я запускаю программу зажигания с --conf spark.sql.shuffle.partitions=100 Внутри приложения у меня...

nnc / 05 апреля 2019
0 голосов
2 ответов

Наше приложение обрабатывает потоковые данные, которые записываются в файлы паркета. Время от...

JoeMjr2 / 05 апреля 2019
0 голосов
1 ответ

Я планирую использовать SparkSQL (не pySpark) поверх данных в Amazon S3.Поэтому я считаю, что мне...

Koushik De / 04 апреля 2019
0 голосов
1 ответ

У меня есть CSV с заголовком со столбцами с тем же именем. Я хочу обработать их с помощью spark,...

aglavina / 04 апреля 2019
0 голосов
1 ответ

Я новичок и у меня есть данные в следующем формате Категория, Подкатегория, Имя Food,Thai...

Roger Ganga Sundararaj / 04 апреля 2019
1 голос
2 ответов

У меня есть столбец date в фрейме данных pySpark с датами в следующем формате: 2018-02-01T13:13:12

Gerasimos / 04 апреля 2019
0 голосов
0 ответов

Я столкнулся с проблемой, когда мне нужно создать набор данных в Java Spark с использованием файла...

kelks / 04 апреля 2019
1 голос
1 ответ

У меня есть этот вариант использования для автоматизированного задания SparkSQL, где я хочу сделать...

Jules L / 04 апреля 2019
0 голосов
1 ответ

У меня есть следующие кадры данных: accumulated_results_df |-- company_id: string (nullable = true)...

Shyam / 04 апреля 2019
2 голосов
1 ответ

У меня есть набор данных spark sparkDSDS Dataset<Row>, как показано ниже...

Vicky / 04 апреля 2019
2 голосов
1 ответ

Я новичок в использовании фреймов данных Spark. Я пытаюсь использовать метод pivot со Spark (Spark...

NITS / 04 апреля 2019
0 голосов
0 ответов

Я пытаюсь выяснить, почему мои 15 ГБ таблицы увеличиваются до 182 ГБ, когда я запускаю простой...

user554481 / 04 апреля 2019
0 голосов
0 ответов

У меня есть сценарий использования, в котором я бы предпочел, чтобы все подключенные данные (для...

Georg Heiler / 03 апреля 2019
1 голос
1 ответ

Я пытаюсь создать новый столбец из кадра данных, который, скажем, выглядит как...

Brian / 03 апреля 2019
7 голосов
2 ответов

В pyspark у меня есть массив переменной длины, для которого я хотел бы найти среднее значение

Aaron Faltesek / 03 апреля 2019
0 голосов
0 ответов

Я пишу библиотеку в Scala для локальной обработки данных.Я хотел бы включить некоторые из функций,...

Selnay / 03 апреля 2019
1 голос
1 ответ

Я хочу взять DF и удвоить каждый столбец (с новым именем столбца). Я хочу провести «Стресс-тесты»...

Harelz / 03 апреля 2019
0 голосов
0 ответов

df.na.fill и df.na.replace не работают, если имя столбца имеет символ .. val df = List((1...

Saiprashanth Nandagiri / 03 апреля 2019
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...