Вопросы с тегом апаш-искра - PullRequest

Вопросы с тегом апаш-искра

0 голосов
1 ответ

Предположим, у меня есть искровой фрейм данных df с некоторыми столбцами (id, ...) и строка...

lmcoy / 05 июля 2018
0 голосов
1 ответ

У меня есть кадр данных Spark с именем df в качестве ввода: +---------------+---+---+---+---+...

PRIYA M / 05 июля 2018
0 голосов
1 ответ

У меня есть Wrapped Array, и я хочу получить значения не нулевые, когда я запрашиваю с LATERAL VIEW...

noobeerp / 05 июля 2018
0 голосов
0 ответов

Люди, Требуется предложение и помощь в группировке логики и обработке более 10 миллионов записей....

Trust_me / 05 июля 2018
0 голосов
1 ответ

DF: ID col1 . .....coln.... Date 1 1991-01-11 11:03:46.0 1 1991-01-11 11:03:46.0 1 1991-02-22...

vikky / 05 июля 2018
0 голосов
1 ответ

Я новичок в Spark и Scala и хотел знать, могу ли я использовать тот же sparkContext, который я...

red27bull / 05 июля 2018
0 голосов
0 ответов

Я потянул свои волосы, пытаясь оптимизировать скрипт Spark, и он все еще невыносимо медленный (24...

Dimebag / 05 июля 2018
0 голосов
5 ответов

У меня есть набор данных карты aadhaar. Мне нужно найти три верхних штата, где процент карт...

Ankit / 04 июля 2018
0 голосов
1 ответ

У меня есть коллекция файлов журнала приложений Spark, я хочу, чтобы каждый файл Имя приложения,...

Mohammed Alrudaini / 04 июля 2018
0 голосов
2 ответов

У меня есть следующий СДР, представляющий данные о продажах: val rddSales:RDD[((String, String),...

samba / 04 июля 2018
0 голосов
2 ответов

Добрый день, коллеги. У меня большой набор данных (около 237 000 000 строк). Есть много столбцов....

0 голосов
0 ответов

Я хотел бы настроить автономный кластер apache spark, используя два разных компьютера (windows 10)...

drkostas / 04 июля 2018
0 голосов
1 ответ

Я получаю следующее исключение в java в Apache Beam, используя Spark в качестве бегуна. Я...

piyush ratan / 04 июля 2018
0 голосов
1 ответ

Я пытаюсь получить доступ к полю batchDuration в StreamingContext. Я не вижу общедоступного API,...

Majid Azimi / 04 июля 2018
0 голосов
1 ответ

У меня есть вложенный talbe mongodb и его структура документа, такая как: { "_id" :...

Lambert / 04 июля 2018
0 голосов
2 ответов

У меня есть конвейер Spark с 3 DataFrame.write, и я хочу вывести временную метку для каждой записи....

Dimebag / 04 июля 2018
0 голосов
2 ответов

Требуется объединить данные из 2 потоковых источников, а затем уменьшить их для того же ключа и...

Tommy Tan / 04 июля 2018
0 голосов
1 ответ

Я пытался установить StreamingContext в моей программе, но я не могу понять, что происходит. Я...

grantedfour / 04 июля 2018
0 голосов
2 ответов

Я разрабатываю решение SparkStreaming, в котором таблица кустов кэшируется как Dataframe, а затем...

sanjeev kumar / 04 июля 2018
0 голосов
2 ответов

Посмотрите на мой последний комментарий принятого ответа для решения Я настроил DStream так: val...

rabejens / 04 июля 2018
0 голосов
2 ответов

Я использую Spark 2.3 и пытаюсь объединить два потока данных. Мой левый и правый потоки имеют...

DataGeek / 04 июля 2018
0 голосов
3 ответов

Поэтому мне нужно создать массив чисел, перечисляющий от 1 до 100 в качестве значения для каждой...

ChiMo / 04 июля 2018
0 голосов
0 ответов

Я использую Spark 2.3 для преобразования некоторых данных CSV в ORC для использования с Amazon...

Marty / 04 июля 2018
0 голосов
1 ответ

У меня есть фрейм данных с подробной информацией о событии, я пытаюсь получить топ-5 недавно...

Masterbuilder / 04 июля 2018
0 голосов
1 ответ

Я читаю файлы JSON из папки HDFS в Spark Scala Код: val path = "hdfs://year/month/date/*"...

vikky / 04 июля 2018
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...