Вопросы с тегом апаш-искра - PullRequest

Вопросы с тегом апаш-искра

0 голосов
1 ответ

Фрейм данных имеет только один столбец «возраст» и содержит 140 миллионов строк. Например, df

gary yong / 02 мая 2018
0 голосов
1 ответ

Я использую IntelliJ IDEA для выполнения кода, показанного ниже. Содержание df следующее:...

ScalaBoy / 02 мая 2018
0 голосов
1 ответ
0 голосов
0 ответов
0 голосов
1 ответ

Я хотел бы преобразовать RDD, содержащий записи строк, как показано ниже, в фрейм данных Spark....

user3096482 / 02 мая 2018
0 голосов
1 ответ

Функция PostgreSQL ARRAY_TO_STRING() позволяет запускать SELECT array_to_string(ARRAY[1, 2, 3, NULL...

Jie / 02 мая 2018
0 голосов
1 ответ

У меня есть DataFrame со столбцом MapType, и я хочу отфильтровать строки, которые не содержат...

Hugo / 02 мая 2018
0 голосов
0 ответов

Я должен сделать простое удаление "." из строк, прежде чем делать подсчет слов. Он работает...

pradipta basu / 02 мая 2018
0 голосов
1 ответ

У меня есть DataFrame df со следующей структурой: root |-- author: array (nullable = true) | |--...

ScalaBoy / 01 мая 2018
0 голосов
1 ответ

У меня есть задание Spark, написанное на Python, которое получает странное поведение при проверке...

Rich Smith / 01 мая 2018
0 голосов
1 ответ

Когда я запускаю приложение Spark на EMR, в чем разница между добавлением конфигов в файл spark /...

Bilberryfm / 01 мая 2018
0 голосов
0 ответов

Я пытаюсь перенести одно из моих приложений из RDD в набор данных. Бизнес-логика сильно зависит от...

burak kose / 01 мая 2018
0 голосов
1 ответ

Pyspark новичок. Получение ошибки при выполнении работников pyspark. Сценарий Pyspark: import os os

naren / 01 мая 2018
0 голосов
0 ответов

У меня есть огромные почти миллиарды строк в базе данных HBase. Я пишу задание Spark, которое...

Alchemist / 01 мая 2018
0 голосов
1 ответ

Я читаю файл .csv в Spark DataFrame. Для столбца DoubleType есть ли способ указать во время чтения...

shanlodh / 01 мая 2018
0 голосов
1 ответ

Я обрабатываю поток со средней нагрузкой 100 Мбит / с. У меня шесть исполнителей, у каждого из...

carl / 01 мая 2018
0 голосов
0 ответов

Итак, я просто пытаюсь перебрать Spark RDD и выполнить действие для каждой строки, например так:...

just another profile name / 01 мая 2018
0 голосов
1 ответ

В следующем фрейме данных: from pyspark.sql import functions as F df = sqlContext.createDataFrame([...

Micah Pearce / 30 апреля 2018
0 голосов
0 ответов

Я обновляю свой сервер до версии 2.3.0 и сервера заданий 0.8.1-SNAPSHOT из версии 2.1.1 и сервера...

user1933178 / 30 апреля 2018
0 голосов
1 ответ

У меня есть требования к обработке, которые, кажется, не соответствуют хорошим вариантам...

thebluephantom / 30 апреля 2018
0 голосов
1 ответ

Возможно ли это в spark-scala? Я использую свечи 2.2 val...

Lux / 30 апреля 2018
0 голосов
1 ответ

Я пытаюсь инициализировать список в Spark, используя scala, из столбца данных. Значение в некоторых...

iamseiko / 30 апреля 2018
0 голосов
1 ответ

Я почти уверен, что не существует простого способа сделать это, но вот мой вариант использования: У...

manuel mourato / 30 апреля 2018
0 голосов
0 ответов

Я запускаю следующий код: import com.holdenkarau.spark.testing.DatasetSuiteBase import org.apache

pcejrowski / 30 апреля 2018
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...