Вопросы с тегом апаша-искра - PullRequest

Вопросы с тегом апаша-искра

0 голосов
0 ответов

Я хотел создать файл XML с объявлением XML из CSV / Dataframe, используя Scala в spark. Я использую...

devanathan / 02 июля 2018
0 голосов
2 ответов

Я должен написать очистить при совпадении компонент. Для этого я пытался использовать разные...

adarsh kadameri / 02 июля 2018
0 голосов
0 ответов

Я пытаюсь прочитать файл Excel, расположенный в HDFS. Я использую банку Spark Excel,...

OBoy / 02 июля 2018
0 голосов
1 ответ

Мне нужно прочитать данные из двух разных кластеров Elastic Search. один для журналов и один для...

Daniel / 02 июля 2018
0 голосов
2 ответов
0 голосов
0 ответов

Я пытаюсь преобразовать большой сжатый CSV-файл в паркет с помощью PySpark. Я довольно новичок в...

Sanjay Kumar / 02 июля 2018
0 голосов
2 ответов

Когда я пытаюсь перечислить все базы данных кустов через Spark (1.6) scala> val tdf = sqlContext

Mahadi Siregar / 02 июля 2018
0 голосов
1 ответ

Я пытаюсь разбить несколько довольно сложных вложенных json на более рационализированный формат, но...

Grizzle / 01 июля 2018
0 голосов
2 ответов

Фрейм данных должен взорваться на основе столбца SPC. Ниже приведен пример Мой входной фрейм данных

Siddesh H K / 01 июля 2018
0 голосов
1 ответ

У меня есть небольшой кусочек кода в PySpark, но я продолжаю получать ошибки. Я новичок в этом,...

TheNinjaKing / 30 июня 2018
0 голосов
0 ответов

Я пытаюсь обернуть определенную функцию Scala в преобразование с использованием конвейера import...

Parv bali / 30 июня 2018
0 голосов
1 ответ

У меня есть 2 спарк-RDD, первый содержит отображение между некоторыми индексами и идентификаторами,...

proximator / 30 июня 2018
0 голосов
1 ответ
0 голосов
0 ответов

Я уже написал код в Spark RDD вроде: val result = data.map(x => { val eachrecord = x

AkhilaV / 29 июня 2018
0 голосов
0 ответов

Я получаю следующее исключение при выполнении искровых заданий. org.datanucleus.exceptions

bytewalker / 29 июня 2018
0 голосов
1 ответ

у меня есть столик с полем ByteArray spark.sql("select ech_montant, ech_piece from f_echeances...

Ftagn / 29 июня 2018
0 голосов
1 ответ

Я видел несколько вопросов о записи одного файла в hdf, кажется, достаточно использовать...

altayseyhan / 29 июня 2018
0 голосов
1 ответ

Входной кадр данных: val ds = Seq((1,34.44), (2,76.788), (3,54.822)).toDF("id"...

adarsh kadameri / 29 июня 2018
0 голосов
1 ответ

Я использую Pyspark из записной книжки Jupyter и пытаюсь записать большой набор данных для паркета...

c3p0 / 29 июня 2018
0 голосов
1 ответ

У меня есть вложенное поле, как показано ниже. Я хочу вызвать flatmap (я думаю), чтобы получить...

kevl510 / 29 июня 2018
0 голосов
0 ответов

У меня есть входной файл, который очень похож на CSV, но с пользовательским заголовком:...

Miguel A. Friginal / 28 июня 2018
0 голосов
1 ответ

Scala> val custdata = sc.textFile("file:///stage/Sales/lego/test/new/spark_test/testing1

Druva Teja / 28 июня 2018
0 голосов
1 ответ

Я использую Spark 2.2.0 и Scala 2.11.8 в среде Spark-Shell. У меня есть фрейм данных df, и мне...

Allen / 28 июня 2018
0 голосов
1 ответ

Я читаю исходный код Spark, и я не уверен, что понимаю эту строку readFunction: (PartitionedFile)...

John Hass / 28 июня 2018
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...