Я пытаюсь понять содержимое контрольной точки и соответствующее восстановление; понимание процесса...
Я пытаюсь запустить задание Spark Structured Streaming и сохранить контрольную точку в Google...
Я пытаюсь объединить большое количество маленьких файлов avro (в формате hdf) в файл паркета....
Я использую spark версии 2.3 и пытаюсь прочитать таблицу улья в spark как: from pyspark.sql import...
Я пытаюсь обработать файлы на S3 через Spark Streaming на EMR.Я включил контрольную точку на S3...
Я отлаживаю проблему для контрольной точки в приложении Apache spark, поэтому я читаю журналы Spark...
Я передаю данные Кафки, как показано ниже: final JavaPairDStream<String, Row>...
В моем текущем искровом приложении я указываю контрольные точки на hdfs, а URI hdfs - как показано...