Вопросы с тегом апаш-искра - PullRequest

Вопросы с тегом апаш-искра

0 голосов
0 ответов

При чтении из файла JSON зависит ли Spark v2.3.1 от местного часового пояса? Мой...

VB_ / 11 ноября 2018
0 голосов
1 ответ
0 голосов
0 ответов

фон: Я запускаю искровую работу в огромном кластере с большими рабочими нагрузками, в котором...

skywalkerytx / 11 ноября 2018
0 голосов
1 ответ

SPARK-26039 При загрузке пустой папки orc. В любом случае, чтобы обойти это. val df = spark.read

VermaAbhishek / 11 ноября 2018
0 голосов
1 ответ

Я пытаюсь типизировать столбцы во фрейме данных df_trial, в котором все столбцы представлены в виде...

Vamshi Manda / 11 ноября 2018
0 голосов
1 ответ

Когда я использую Spark для чтения нескольких файлов из S3 (например, каталог со многими файлами...

user976850 / 11 ноября 2018
0 голосов
1 ответ

Чтобы пользователи системы могли динамически создавать (через веб-интерфейс приложения) разные...

alexanoid / 11 ноября 2018
0 голосов
1 ответ

Ниже мой набор данных с использованием искры. Я хочу добавить еще один столбец в конце с именем...

Rahul Wagh / 11 ноября 2018
0 голосов
1 ответ

Например, если я выберу 16 vcore с 10 рабочими узлами, то есть 16-1 (одно ядро ​​для хранения...

Ram / 11 ноября 2018
0 голосов
1 ответ

import findspark findspark.init('C:\spark') from pyspark.sql import SparkSession spark =...

tim software / 10 ноября 2018
0 голосов
0 ответов

Следующий запрос Spark SQL работает нормально: ((country IN (FROM medium_countries) ) AND (country...

alexanoid / 10 ноября 2018
0 голосов
1 ответ

Я прочитал, что хорошей практикой для enum является scala: Я намеренно расширяю класс с помощью...

KyBe / 10 ноября 2018
0 голосов
1 ответ

Чтение файла последовательности с Int и String логически, тогда, если я сделаю это: val...

thebluephantom / 10 ноября 2018
0 голосов
0 ответов

Я использую библиотеки pyspark.ml для создания и обучения моделей для классификации твитов. Я...

ebt_dev / 10 ноября 2018
0 голосов
0 ответов

Чтобы упростить входные параметры и код, я сгенерировал список ввода (в реальном времени это много...

Sergii / 10 ноября 2018
0 голосов
1 ответ

Я исследовал приложение для очистки данных, которое можно использовать со Spark. Я столкнулся с...

user485868 / 10 ноября 2018
0 голосов
0 ответов

У нас есть данные временных рядов, такие как ежедневный файл паркета размером 3 ГБ в HDFS...

Thomas Decaux / 10 ноября 2018
0 голосов
0 ответов

У меня есть один tar-файл mytar.tar размером 40 ГБ. Внутри этого tar файла находятся 500 tar.gz...

Jane Wayne / 10 ноября 2018
0 голосов
0 ответов
0 голосов
1 ответ

У меня есть следующий DataFrame: +------+------------------+--------------+-------------+ | name|...

alexanoid / 09 ноября 2018
0 голосов
0 ответов

У меня есть потоковое приложение Spark + Kafka, которое отлично работает в локальном режиме, однако...

alex / 09 ноября 2018
0 голосов
1 ответ

Когда я отправляю эту команду, моя работа завершилась с ошибкой «Контейнер работает за пределами...

andret8 / 09 ноября 2018
0 голосов
0 ответов

val vectors = [SOME RDDs] val clusterised = vectors.groupBy(...) // Partitioning val...

Zed Ekkes / 09 ноября 2018
0 голосов
2 ответов

У меня есть Spark DataFrame следующим образом: # --------------------------------- # - column 1 - .

ma3oun / 09 ноября 2018
0 голосов
3 ответов

У меня есть следующий DataFrame: name,email,phone,country...

alexanoid / 09 ноября 2018
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...