Spark job - пропущенные разделы после успешного завершения - PullRequest
0 голосов
/ 10 марта 2019

Мое задание spark считывает данные из хранилища объектов swift, обрабатывает их и записывает обработанные данные в папку назначения в swift.Но после успешного завершения моей искровой работы, когда он обработал 33000 разделов с 33000 задачами, он скопировал только около 5000 разделов из папки _tevent в текущий каталог в месте назначения и неожиданно завершил работу.2-я или 3-я попытка может создать все разделы в нашем каталоге назначения.С чего бы это?Даже команда hadoop fs -ls в месте назначения периодически показывает 5000 и все 33000 разделов.Я считаю это поведение действительно странным.Кто-нибудь еще сталкивался с этой проблемой?

...