Операция записи Spark Dataframe очищает кэшированный Dataframe - PullRequest
0 голосов
/ 30 ноября 2018

Spark очищает кэшированный RDD после того, как на некоторые кадры данных, поступившие из этого кэша после некоторых преобразований, вызвано действие записи.Поэтому любое дальнейшее действие, которое могло бы использовать кеш, должно пересчитать СДР.Однако, если действие заменяется любым другим действием, таким как подсчет или получение, кэш сохраняется и может использоваться в последующих операциях.

Почему это происходит?

1 Ответ

0 голосов
/ 17 мая 2019

Сначала вы можете использовать одно действие, такое как df.count (), после того, как вы кешируете фрейм данных, затем фрейм данных будет кеширован.Используйте write () после запуска кеша другими действиями.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...