Я только начинаю изучать spark, меня немного смущает эта концепция, поэтому из установки spark мы получаем pyspark в подпапках установки spark, я понимаю, что это оболочка, а из пакета python мыТакже можно также установить пакет python через pip install pyspark, поэтому мы можем запустить код python вместо отправки его в кластер, так в чем же разница между этими двумя? также в Anaconda мы можем использовать findspark и использовать pyspark оттуда, значит ли это, что он не использует pyspark из пакета python?
Плюс в реальной жизни искры разработки приложений, что используется в каком сценарии? заранее спасибо.