Spark для нераспределенных параллельных вычислений и их производительность - PullRequest
0 голосов
/ 27 апреля 2020

Я новичок в Spark. Мне интересно, насколько хорошо он работает при уменьшении до одного узла, и сколько накладных расходов сравнивается с обычными нераспределенными параллельными подходами, поэтому я могу оценить, является ли это хорошим выбором для написания нераспределенной программы параллельных вычислений в Spark и при необходимости увеличьте масштаб до нескольких узлов.

Так может ли Spark эффективно использоваться для локальных параллельных вычислений с одним компьютером? Если да, то какова его производительность по сравнению с обычными Scala параллельными коллекциями или Java 8 параллельными потоками? Являются ли накладные расходы значительными?

Дополнительно и специально для графиков, как производительность GraphX ​​ по сравнению с Графиком для Scala или JGraphT

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...