У меня есть несколько заданий Spark, которые записывают данные и читают данные из S3. Время от времени (примерно один раз в неделю в течение приблизительно 3 часов) задания Spark не выполняются со следующим исключением:
org.apache.spark.sql.AnalysisException: Path does not exist.
Я обнаружил, что это, вероятно, связано с моделью согласованности в S3, где операции со списками в конечном итоге непротиворечивы. S3 Guard утверждает, что решил эту проблему, но я нахожусь в среде Spark, которая не поддерживает эту утилиту.
Кто-нибудь еще сталкивался с этой проблемой и нашел разумный подход к решению этой проблемы?