Чтобы обработать много файлов в контейнере wasb, вам нужно использовать шаблоны глобусов Hadoop Input Format.Ниже приведены шаблоны, несколько похожие на регулярные выражения:
* (match 0 or more character)
? (match single character)
[ab] (character class)
[^ab] (negated character class)
[a-b] (character range)
{a,b} (alternation)
\c (escape character)
В вашем случае должно работать следующее:
df = spark.read.format("csv").load("/container/*/*/*/*.csv")