Если у нас есть, скажем,:
val rdd1 = rdd0.map( ...
, за которым следует
val rdd2 = rdd1.filter( ...
Тогда, при фактическом запуске из-за действия, rdd2 может начать вычислять уже вычисленные результаты rdd1, которыеизвестны - или это должно ждать, пока работа rdd1 не будет завершена?Это не очевидно для меня при чтении материала SPARK.Informatica pipelining делает это, поэтому я предполагаю, что это возможно и в SPARK.