Spark использует Map Reduce для внутреннего использования?(своя собственная карта уменьшения)
Когда я впервые услышал, как кто-то сказал мне: «Используйте Spark Map-Reduce», я был так растерян, я всегда узнал, что искра была великим противником Hadoop-Map Reduce.
После проверки в Google я только что нашел веб-сайт, который дает слишком краткое объяснение этого: https://dzone.com/articles/how-does-spark-use-mapreduce
Но остальная часть Интернета - это Spark vs Map Reduce.
Чем кто-то объяснил мне, что когда спарк создает RDD, данные разделяются на разные наборы данных, и если вы используете, например, SPAR.SQL, запрос, который не должен быть картой, сокращается, как:
select student
from Table_students
where name = "Enrique"
ВнутреннеSpark делает уменьшение карты для извлечения данных (из разных наборов данных).
Это правда?
Если я использую Spark Mlib, чтобы использовать машинное обучение, я всегда слышал, что машинное обучение несовместимо с сокращением карт, потому что для этого требуется так много взаимодействий и сокращает использование карт пакетной обработки.
В Spark Mlib Spark Внутренне тоже использует Map для уменьшения?