Вопросы с тегом апаш-искровой SQL - PullRequest

Вопросы с тегом апаш-искровой SQL

0 голосов
0 ответов

Используйте sparkSession. Когда я читаю файл паркета, я получаю следующую ошибку: мой код: val df =...

Shaokai Li / 11 мая 2018
0 голосов
1 ответ

У меня есть два следующих кадра данных df1 +--------+----------------------------- |id | amount |...

Nick01 / 11 мая 2018
0 голосов
2 ответов

Я довольно плохо знаком с scala и spark, но у меня большой опыт работы с Python и другими языками.У...

Wired604 / 10 мая 2018
0 голосов
0 ответов

мои входные данные хранятся в Cassandra, и я использую таблицу, первичным ключом которой является...

Marious / 10 мая 2018
0 голосов
1 ответ

Я знаю, как получить jobID / ApplicationID от sparkContext.Есть ли способ получить jobID /...

John Hass / 10 мая 2018
0 голосов
1 ответ

У меня есть фрейм данных, который я записываю в таблицу Hive с использованием partitionBy - val df...

Regressor / 10 мая 2018
0 голосов
2 ответов

Или просто для простоты понимания, у меня есть фрейм данных. DataPartition TimeStamp OrganizationID...

SUDARSHAN / 10 мая 2018
0 голосов
1 ответ

Я получаю логи в формате log4j, обрабатываю их и сохраняю в Spark. Я не в кластерной или...

kumar / 10 мая 2018
0 голосов
2 ответов

У меня есть два кадра данных. df1 +--------+------------------- |id | amount | fee | |1 | 10.00 | 5

Nick01 / 10 мая 2018
0 голосов
0 ответов

Я пишу это не для того, чтобы задать вопрос, а для того, чтобы поделиться знаниями. Я использовал...

Chao Mu / 10 мая 2018
0 голосов
2 ответов

Я делаю некую агрегацию на созданном мною кадре данных. Вот шаги val initDF = spark.read

Rajesh Ravindran / 10 мая 2018
0 голосов
2 ответов

У меня есть приложение для потоковой передачи с искровым структурированием (прослушивание kafka),...

Brian / 09 мая 2018
0 голосов
3 ответов

как прочитать таблицу кустов транзакций орков в spark? Возникла проблема при чтении таблицы...

Ajinkya / 09 мая 2018
0 голосов
1 ответ

У меня есть следующий DataFrame df: url user date followers www.test1.com A 2017-01-04 05:46:00 45...

ScalaBoy / 09 мая 2018
0 голосов
1 ответ

Это кажется простой задачей, но я не могу понять, как это сделать с помощью Scala в Spark (не...

ScalaBoy / 09 мая 2018
0 голосов
1 ответ

В основном я передаю динамические значения в pyspark SQL. Мой код подробно описан ниже: set_sql =...

Bhaskar / 09 мая 2018
0 голосов
1 ответ

У меня есть Dataset DS1 ниже. Я хочу собрать DS2 с использованием Spark Java API. DS1:...

OOvic / 09 мая 2018
0 голосов
1 ответ

Я пытаюсь выполнить пользовательскую агрегацию при структурированной потоковой передаче с оконным...

Eldinea / 09 мая 2018
0 голосов
2 ответов

У меня есть два кадра данных DF1 и DF2 с id в качестве уникального столбца, DF2 может содержать...

raman / 09 мая 2018
0 голосов
2 ответов

В pysparkSQL у меня есть DataFrame с именем bmd2, например: DataFrame[genres: string, id: int,...

iPrince / 09 мая 2018
0 голосов
0 ответов

У меня есть следующий код: - var ArrayStop = new ArrayList[imeistoppage]() val listings =...

Pinnacle / 09 мая 2018
0 голосов
1 ответ

Я хочу иметь возможность передать условие соединения для двух фреймов данных в качестве входной...

Nick01 / 09 мая 2018
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...