Вопросы с тегом апаш-искра - PullRequest

Вопросы с тегом апаш-искра

0 голосов
0 ответов

Согласно документации аккумуляторов в искре: Обратите внимание, что задачи на рабочих узлах не...

KayV / 20 сентября 2018
0 голосов
1 ответ

Согласно документации аккумуляторов: Обратите внимание, что задачи на рабочих узлах не могут...

KayV / 20 сентября 2018
0 голосов
0 ответов

Я пытаюсь запустить несколько приложений на отдельном кластере Spark.но кажется, что отдельный...

Arjun gangineni / 20 сентября 2018
0 голосов
0 ответов

Я хочу закодировать категориальные характеристики кадра данных искры (df), используя средний...

Saeid SOHEILY KHAH / 20 сентября 2018
0 голосов
1 ответ

У меня есть файл 'input.txt', содержащий следующее: [10,21,90,34,40,98,21,44,59,21,90,34,29,19, 21...

BossBaby / 20 сентября 2018
0 голосов
2 ответов

Я знаю, что метод Apache Spark persist сохраняет RDD в памяти и что, если не хватает места в памяти...

YACINE GACI / 20 сентября 2018
0 голосов
0 ответов

необходимо запустить искровое потоковое задание в автозапуске, уже использованы параметры,...

Asmi / 20 сентября 2018
0 голосов
2 ответов

сильный текст Почему этот этап выполняется с 1 потоком в конце?Из-за этого требуется много времени,...

Suresh G / 20 сентября 2018
0 голосов
1 ответ

Чтение CSV-файлов, а затем запись в паркет. Можно ли сохранить 128 МБ паркетных блоков? Мой текущий...

Rolintocour / 20 сентября 2018
0 голосов
1 ответ

У меня есть случай, когда в NoSQL Datastore хранится около 150 миллионов записей.Каждый день может...

Swarup / 20 сентября 2018
0 голосов
0 ответов

У меня есть набор данных, скажем, DS. DS.printSchema() root |-- BRAND: string (nullable = true) |--...

Sekhar / 20 сентября 2018
0 голосов
2 ответов

код pyspark, написанный для вызова другого задания python с использованием subprocess.Popen...

Siddeshwar / 20 сентября 2018
0 голосов
0 ответов

Используйте hiveContext.sql, чтобы выполнить скрипт ниже: with nt as ( select label, score from (...

Yuchen Gu / 20 сентября 2018
0 голосов
0 ответов

Я не могу создать Apache Spark Dataframe со структурированным пустым ключом JSON, как показано ниже...

abdulrahman Mohammed / 20 сентября 2018
0 голосов
2 ответов

Я пытаюсь использовать ваш проект под названием dask-spark, предложенный Мэтью Роклином. При...

Doudoulin / 20 сентября 2018
0 голосов
0 ответов

Существует очень простой код для чтения данных из Kafka и записи значения в dataframe в другой...

Jed.Y / 20 сентября 2018
0 голосов
0 ответов

В настоящее время я использую spark-submit --master yarn --deploy-mode cluster для запуска своих...

Aether / 20 сентября 2018
0 голосов
1 ответ

У меня есть Pair Rdd[(Int, Array[Double])], и я хочу, чтобы каждый ключ вычитал все другие массивы...

Tmpoul / 20 сентября 2018
0 голосов
3 ответов

Как использовать искровой SQL-фильтр в качестве чувствительного к регистру фильтра на основе...

xyz_scala / 20 сентября 2018
0 голосов
0 ответов

Я пытаюсь написать модульные тесты в Spark Streaming с DStreams.Вот мой тестовый пример. import org

Srinivas / 19 сентября 2018
0 голосов
1 ответ

У меня есть некоторый DataFrame со столбцом "date", и я пытаюсь сгенерировать новый...

LDropl / 19 сентября 2018
0 голосов
1 ответ

Я немного тренируюсь в Spark и задаюсь вопросом об оптимизации одной из моих задач.Цель проста:...

kacperdominik / 19 сентября 2018
0 голосов
0 ответов

Я пытаюсь использовать следующий код: addresses = spark.sql('''SELECT street_address...

J. Sell / 19 сентября 2018
0 голосов
0 ответов

У меня есть текстовый файл с форматом ниже 2018-01-19 12:00 Info 2018-01-20 12:00 Info 2018-01-21...

Sujith / 19 сентября 2018
0 голосов
1 ответ
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...