Вопросы с тегом апаша-искра - PullRequest

Вопросы с тегом апаша-искра

0 голосов
0 ответов

Я хочу добавить dfs.namenode.servicerpc-address в моем кластере Hadoop.Использует ли Spark dfs

meet112 / 23 сентября 2019
0 голосов
0 ответов

У меня есть 11 столбцов (от f_0 до f_9, цель) в моем кадре данных искры, которые имеют числовой тип...

user12104942 / 23 сентября 2019
0 голосов
1 ответ

Я новичок в Spark и Scala.Я использую пакет НЛП для анализа книги.Метод НЛП дает результат spark

DD Jin / 23 сентября 2019
0 голосов
1 ответ

У меня есть фрейм данных в pyspark, как показано ниже. df = sqlContext.createDataFrame( [...

nmr / 22 сентября 2019
0 голосов
0 ответов

Я пытаюсь создать миллионы вершин из текстового файла через граф Януса, используя spark. Код JAva:...

ashish chopra / 22 сентября 2019
0 голосов
1 ответ

Я запускаю приложение Spark, используя spark-submit и определенные параметры JVM.С этим набором...

Cassie / 22 сентября 2019
0 голосов
1 ответ

Я хочу, чтобы spark игнорировал некоторые неудачные задачи из-за проблем с данными.Кроме того, я...

gkarch / 22 сентября 2019
0 голосов
0 ответов

import org.apache.spark.sql.{DataFrame, Column, SparkSession} object addColumn { def main(args:...

Sidi Chang / 22 сентября 2019
0 голосов
1 ответ

Я пытаюсь запустить пример приложения локально, используя: Scala (2.11), Spark (2.3.0) с...

blueberret / 21 сентября 2019
0 голосов
0 ответов

Я пытаюсь запустить искру на своем ноутбуке в режиме одиночного режима, но получаю странную ошибку....

Donbeo / 21 сентября 2019
2 голосов
2 ответов

Во-первых, я совершенно новичок в scala и spark, хотя немного famailiar с pyspark.Я работаю с...

Max / 21 сентября 2019
0 голосов
2 ответов

У меня есть DataFrame, и в нем есть столбец с именем Events.Итак, что я хочу сделать, это собрать...

Saad Zia / 20 сентября 2019
0 голосов
0 ответов

Я использую Scala 2.12.7 и Spark 2.4.3, у меня есть алгоритм для вычисления kNN с использованием...

DarthVi / 20 сентября 2019
1 голос
1 ответ

У меня есть текстовый файл, который похож на ниже 20190920 123456789,6325,NN5555,123,4635,890,C,9...

vvr / 20 сентября 2019
1 голос
1 ответ

Хотелось бы знать, что аналогично SBT или MAVEN для SCALA, что мы будем использовать для pyspark...

Sri_Karthik / 20 сентября 2019
0 голосов
1 ответ

Я знаю, если я хочу преобразовать xs: RDD[Option[T]] to List[T], я просто пишу xs.flatten Теперь,...

user132603 / 20 сентября 2019
1 голос
0 ответов

Я выгружаю таблицу Postgres с помощью команды копирования, выводимой в CSV. CSV содержит метки...

JW2 / 20 сентября 2019
0 голосов
1 ответ

У меня есть процесс Spark, который зависает - казалось бы, навсегда - на данном этапе: [Stage...

pfnuesel / 20 сентября 2019
0 голосов
1 ответ

У меня есть файл .csv, который я пытаюсь проанализировать с помощью spark.Файл .csv содержит,...

TheNumb3rMan / 19 сентября 2019
0 голосов
2 ответов

Мне нужно найти все недели года между указанными неделями. 201824 - это пример годовой недели.Это...

yAsH / 19 сентября 2019
0 голосов
0 ответов

Пример данных У меня есть набор данных, который выглядит ниже и представлен в текстовом формате:...

vvr / 19 сентября 2019
0 голосов
0 ответов

Поддержка SSL / TLS на соединителе MongoDB Spark? Мы используем соединитель MongoDB-Spark для...

Senthil Nayagan / 19 сентября 2019
0 голосов
1 ответ

Применяет MAP () к Dataframe, всегда преобразует DF в RDD. scala> val custDF = sqlContext.read

Sudhanshu / 19 сентября 2019
0 голосов
0 ответов

Я использую pyspark для ежедневной обработки фиксированного набора записей данных и сохраняю их в...

Y.Su / 19 сентября 2019
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...