Это зависит от главного URL-адреса , который описывает, какую среду выполнения ( менеджер кластеров ) использовать.
Поскольку это такой низкоуровневый инфраструктурно-ориентированныйчто вы можете найти ответ, запросив экземпляр SparkContext
.
Например, если это local[*]
, это будет означать, что вы хотите использовать столько процессоров (звездная часть), сколько доступно в локальной JVM.
$ ./bin/pyspark
Python 2.7.15 (default, Feb 19 2019, 09:17:37)
[GCC 4.2.1 Compatible Apple LLVM 10.0.0 (clang-1000.11.45.5)] on darwin
...
Welcome to
____ __
/ __/__ ___ _____/ /__
_\ \/ _ \/ _ `/ __/ '_/
/__ / .__/\_,_/_/ /_/\_\ version 2.4.0
/_/
Using Python version 2.7.15 (default, Feb 19 2019 09:17:37)
SparkSession available as 'spark'.
>>> print sc.master
local[*]
>>> print sc.defaultParallelism
8