Вопросы с тегом рдд - PullRequest

Вопросы с тегом рдд

0 голосов
2 ответов

Это вопрос новичка, потому что я не могу найти простой способ. Я делаю набор данных авиакомпании с...

HP. / 06 июня 2018
0 голосов
1 ответ

Я загрузил 2 CSV-файла, преобразовал RDD в DF и написал несколько условий JOIN для их выполнения.Я...

Ram / 05 июня 2018
0 голосов
2 ответов

Я пытаюсь разбить каждый элемент JavaRDD на пробел, кроме части в кавычках и [].Я использую...

Amber / 05 июня 2018
0 голосов
2 ответов

Я пытаюсь понять, как работает преобразование между RDD, DataSets и DataFrames.Я довольно новичок в...

ggagliano / 05 июня 2018
0 голосов
1 ответ

Ниже приведен мой код искры scala: val vertex = graph.vertices val edges = graph.edges.map(v=>(v

Xiaotian Han / 04 июня 2018
0 голосов
4 ответов

Данные состоят из двух столбцов A B A C A D B A B C B D B E C A C B C D C E D A D B D C D E E B E C...

Dale Angus / 02 июня 2018
0 голосов
1 ответ

Я работаю над проектом Stream Streaming, который берет данные из Kafka, применяет некоторые правила...

lucy / 01 июня 2018
0 голосов
2 ответов

Я использую Spark SQL для извлечения строк из таблицы.Некоторые из этих данных повторяются, и я...

R. Gosman / 30 мая 2018
0 голосов
1 ответ

У меня есть объект A, который содержит список объектов B, я хочу получить что-то от каждого объекта...

Guillermo Teixeira / 30 мая 2018
0 голосов
2 ответов

В этом предыдущем вопросе я пытался избежать проблем с памятью с Spark join, избегая использования...

Thomas W / 29 мая 2018
0 голосов
2 ответов

Как конвертировать RDD[(String, (((A, B), C), D))] в RDD[(String, (A, B, C, D))] Нужно ли...

yu.sun / 29 мая 2018
0 голосов
1 ответ

У меня здесь есть набор игрушечных данных, для которого мне нужно вычислить список городов в каждом...

Sree51 / 28 мая 2018
0 голосов
1 ответ

Это в pyspark, где r_parsed - это СДР, r_parsed = r_parsed.map(lambda x: ([k for k in x

f.g. / 24 мая 2018
0 голосов
0 ответов

Я пытаюсь сохранить данные из kafka в hdfs, используя потоковую передачу в java.Это мой кусок кода....

A.Rohan / 24 мая 2018
0 голосов
1 ответ

На этом сайте много вопросов относительно того, как преобразовать pyspark rdd в фрейм данных.Но ни...

kingledion / 24 мая 2018
0 голосов
0 ответов

Я недавно использую Spark 1.5.1 для обработки данных hadoop.Тем не менее, мой опыт Spark не очень...

Wilber / 23 мая 2018
0 голосов
3 ответов

В соответствии с таким количеством хороших ресурсов, желательно переразбить RDD после работы...

Mayank Mittal / 22 мая 2018
0 голосов
0 ответов

Я могу прочитать в кадре данных Spark как пользовательский объект, подобный этому: spark.read

Sasgorilla / 22 мая 2018
0 голосов
0 ответов

В нашей реализации алгоритма Eclat на Spark (Java) алгоритм дает правильный результат на одном узле

Alper Nebi Kanlı / 22 мая 2018
0 голосов
1 ответ

Как я могу преобразовать значение ключа rdd в rdd с помощью только списка значений в PySpark?...

Rvsvgs / 20 мая 2018
0 голосов
1 ответ

У меня есть СДР, в котором в качестве значения указаны 2 пары пар ключей и значений: rdd5.glom()

pandi / 20 мая 2018
0 голосов
1 ответ

У меня есть диктория в python {'609232972': 4, '975151075': 4,...

Rvsvgs / 19 мая 2018
0 голосов
1 ответ

Я новичок в Python.Я также новичок в pysaprk.Я пытаюсь запустить код, который принимает кортеж,...

user3446905 / 19 мая 2018
0 голосов
0 ответов

rdd_data = sc.parallelize([ list(r)[2:-1] for r in data.itertuples()]) rdd_data.count() при...

Taymour Niazi / 19 мая 2018
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...