Вопросы с тегом Apache-искра - PullRequest

Вопросы с тегом Apache-искра

0 голосов
1 ответ

Следующий вопрос содержит решение для добавления заголовков в dataframe на языке Scala.Я хочу...

user0204 / 23 мая 2019
1 голос
0 ответов

У меня есть три производителя кафки, которые отправляют потоки данных на одну и ту же тему с...

Amlan / 23 мая 2019
1 голос
0 ответов

Я пытаюсь настроить Apache-Spark с Python и Visual Studio Code. До этого момента я следовал...

Hunter Mitchell / 22 мая 2019
0 голосов
1 ответ

Я пытаюсь прочитать данные из одного куста (куст № 1) и записать результат в другой куст (куст № 2)...

maxime G / 22 мая 2019
0 голосов
2 ответов

У меня есть данные, которые выглядят следующим образом ID Sensor No 1 specificSensor 1 2 1234 null...

UNoWhoIam / 22 мая 2019
0 голосов
1 ответ

У меня есть набор данных dsCustomer, в котором есть данные о клиенте со столбцами |customerID|idpt...

brunel Fabrice Touopi Touopi / 22 мая 2019
0 голосов
1 ответ

Я пытался добавить значения существующего списка в кортеж.Это не показывает ошибку компилятора, но...

0 голосов
0 ответов

Я пытаюсь представить скрипт Python на Spark, который должен использовать pos_tag, но всякий раз,...

Harshdeep Singh / 21 мая 2019
0 голосов
1 ответ

Я клонировал проект spark из github, добавил плагин scoverage в родительский файл pom.xml,...

Raman Mishra / 21 мая 2019
0 голосов
0 ответов

Я выполнял простую потоковую передачу Kafka-Spark с использованием Direct Stream, как это было...

Shivam Kumar / 21 мая 2019
0 голосов
0 ответов

Мне нужно прочитать некоторые csv-файлы с использованием искрового фрейма данных и обработать эти...

Balakrishnan / 21 мая 2019
1 голос
0 ответов

Я работаю над проектом, использующим pyspark. Тем не менее, я сталкиваюсь с ошибками py4j при...

PMende / 21 мая 2019
2 голосов
1 ответ

Я должен повернуть данные в файл, а затем сохранить его в другом файле.У меня возникли некоторые...

sarvs / 20 мая 2019
0 голосов
1 ответ

Функция Spark summary() возвращает количество, среднее, стандартное отклонение и 25/50/75%...

Tokyo / 20 мая 2019
0 голосов
1 ответ
0 голосов
2 ответов

У меня есть источник OPC, который генерирует данные датчика, и мне нужно «преобразовать» данные....

UNoWhoIam / 19 мая 2019
2 голосов
0 ответов

Вводом является RDD, а желаемым выводом является список Java POJO Привести аналогичный пример из...

Vijay Kumar Chauhan / 19 мая 2019
0 голосов
1 ответ

Например, когда я нахожусь в Spark Shell с помощью PySpark, я могу загрузить файл в контекст spark...

Aakash Rami / 18 мая 2019
1 голос
0 ответов

Окружающая среда: Hadoop: 2.5.3.0-37 Spark: 1.6.2 Scala: 2.10.5 Java: 1.8 Краткое резюме: толстый...

Kode Charlie / 18 мая 2019
0 голосов
1 ответ

Я пытаюсь воспроизвести некоторые аналитики, которые я делаю в традиционной BI в рамках spark

chubbsondubs / 17 мая 2019
0 голосов
1 ответ

Я пытаюсь объединить несколько фреймов данных с помощью функции unionAll в pyspark. Вот что я...

confused_pandas / 17 мая 2019
1 голос
1 ответ

Я видел репозиторий github для spark-cassandra-connector, и я не нашел, что ReaderBuilder...

Yash Tandon / 17 мая 2019
0 голосов
0 ответов

Предположим, у меня есть внешний jar-файл в репозитории maven с именем spark-core_2.11:2.1.0

Abhishek Singh / 17 мая 2019
0 голосов
1 ответ

Я новичок в Spark и не слишком разбираюсь в этом. Я работаю над приложением, в котором данные...

nitin tyagi / 17 мая 2019
0 голосов
1 ответ

В Java есть фрагмент кода: Dataset<Row> dataset = ... ... dataset.groupBy("id")

Oleg Mikhailov / 17 мая 2019
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...