Если я создаю Dataframe следующим образом:
val usersDF = spark.read.csv("examples/src/main/resources/users.csv")
Действительно ли Spark загружает (/ копирует) данные (из файла csv) в память или в базовую файловую систему как распределенный набор данных?
Я спрашиваю, потому что после загрузки df любое изменение данных базового файла не отражается в запросах к фрейму данных. (Если, конечно, фрейм данных снова загружается заново, вызывая приведенную выше строку кода.
Я использую интерактивные запросы в записных книжках Databricks.