Создание RDD в PYspark - PullRequest
       11

Создание RDD в PYspark

0 голосов
/ 29 апреля 2019

Все в Spark создано в форме RDD (пары ключ-значение).Это необходимо?Какой тип аналитики может быть создан / выполнен с помощью набора данных RDD?Пожалуйста, приведите пример и способы его преобразования в СДР

Спасибо, Адитья

1 Ответ

0 голосов
/ 30 апреля 2019

Spark используется для решения задач, связанных с огромными наборами данных, для которых требуется преобразование данных. Spark построен с использованием функционального языка программирования (Scala) вместо императивного языка (C или C ++), поскольку функциональное программирование позволяет лениво разделять задачи между несколько узлов в кластере, которые не могут сделать обязательные парадигмы программирования и зависят от внешнего хранилища данных для работы распределенных алгоритмов. В Spark есть много библиотек, которые выполняют алгоритмы распределенного машинного обучения, что невозможно при использовании стандартных сценариев R или Python

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...