Я запускаю запланированный процесс, который запрашивает таблицу в Hive с использованием sparkSQL и выполняет некоторые преобразования, а затем подсчитывает строки в наборе данных:
val dataset = this.query_hive(sql_statement)
val result_interm = this.transformation_step1(dataset)
val result = this.transformation_step2(result_interm)
println(result.count())
У меня есть проблема с таблицей в Hive, которая получаетобновляется довольно часто, и всякий раз, когда он обновляется во время выполнения задания spark, я получаю сообщение об ошибке Spark java.io.FileNotFoundException, invalidate the cache in Spark by running REFRESH TABLE table
от Spark.Мой вопрос: есть ли способ, которым я могу предотвратить это?