Вопросы с тегом апаша-искра - PullRequest

Вопросы с тегом апаша-искра

0 голосов
1 ответ

Я новичок в геопространственной области, и мне удалось добавить geomesa-spark-jst в проект, который...

Dusan Vasiljevic / 21 мая 2018
0 голосов
1 ответ

Я использую spark df write для записи в таблицу оракулов - Когда записываются данные, базовая...

surajz / 21 мая 2018
0 голосов
2 ответов

Я пытаюсь добавить фрейм данных одного столбца в больший фрейм данных, однако проблема с первым...

ddssuu / 20 мая 2018
0 голосов
2 ответов
0 голосов
1 ответ

Недавно я установил купол и свечу в своей системе.Когда я запускал команду pyspark в пути c: \...

krishna teja / 19 мая 2018
0 голосов
1 ответ

Я на DataBricks с Spark 2.2.1 и Scala 2.11.Я пытаюсь выполнить запрос SQL, который выглядит...

Jane Wayne / 19 мая 2018
0 голосов
2 ответов

У меня есть код Scala, подобный следующему: val new_rdd = rdd1.join(rdd2).map(x => (x._2._2, x

diens / 19 мая 2018
0 голосов
2 ответов

У меня есть data frame in pyspark, как показано ниже. +-----+---+---+----+ |tests|val|asd|cnty|...

Question_bank / 19 мая 2018
0 голосов
2 ответов

Я пытаюсь удалить последний элемент RDD [String]. Пока я делаю это: val n: Long = rdd.count() val...

diens / 19 мая 2018
0 голосов
1 ответ

Я не знаю, правильно ли я использую широковещательную переменную. У меня есть два RDD, rdd1 и rdd2

diens / 18 мая 2018
0 голосов
1 ответ

Мне интересно, есть ли какой-нибудь способ для spark-submit временно изменить конфигурацию задания...

user3593261 / 18 мая 2018
0 голосов
2 ответов

У меня есть текстовый файл в S3, который я хотел бы загрузить в RDD с spark-shell. Я скачал Spark 2

Will Beason / 18 мая 2018
0 голосов
1 ответ

У меня есть два фрейма данных в pyspark.Их схемы ниже df1 DataFrame[customer_id: int, email: string...

Question_bank / 18 мая 2018
0 голосов
1 ответ

Я не могу создать H2OContext в Spark Databricks - используя pysparkling.Это дает следующую ошибку....

Marvania Mehul - MKPatel / 18 мая 2018
0 голосов
1 ответ
0 голосов
1 ответ
0 голосов
1 ответ

Я могу программно создать контекст улья на spark 1.6.0, используя: val conf = new SparkConf()

udit / 18 мая 2018
0 голосов
3 ответов
0 голосов
1 ответ

Я хочу сделать что-то подобное: val myBigRdd2: RDD[_] = ??? myBigRdd1.mapPartition{ dataBlock =>...

Wonay / 18 мая 2018
0 голосов
1 ответ

Мне нужно использовать SparkR для какой-то части проекта, обычно я использую scala.Я записываю файл...

fletchr / 17 мая 2018
0 голосов
1 ответ

Формулировка моего вопроса может сбивать с толку, поэтому позвольте мне объяснить.Скажем, у меня...

Leyth G / 17 мая 2018
0 голосов
1 ответ

В файле данных или в файле parquet в spark он имеет входные данные, как показано ниже, и должен...

Arvy / 17 мая 2018
0 голосов
2 ответов

Я использую pyspark в качестве языка кода. Я добавил столбец, чтобы получить имя файла с путем....

Hemant Chandurkar / 17 мая 2018
0 голосов
1 ответ

У меня есть простое приложение spark, которое читает данные csv и затем записывает их в avro. Это...

PPPP / 17 мая 2018
0 голосов
3 ответов

Я хочу преобразовать Spark DataFrame в другой DataFrame определенным образом следующим образом: У...

Dimas Rizky / 17 мая 2018
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...