Я все еще новичок в Pyspark и пытаюсь найти что-то подобное, но не могу найти ничего, что напрямую отвечает на этот вопрос. Я выполняю некоторую работу по декодированию большого количества URL-адресов, и в настоящее время он многопоточный на одном узле (по умолчанию), просто интересно, возможно ли иметь многопоточность в каждом узле на нескольких из них (искра + многопоточность) для дальнейшего ускорения работа? Могу ли я включить многопоточность как часть функции pyspark udf? Спасибо!