У меня есть папки, созданные в базовом каталоге hdfs каждый раз, когда выполняется задание. И в каждой папке есть файлы .dat.
Мне нужно скопировать файлы .dat в мой базовый каталог, используя scala, и заархивировать, например, подкаталоги
. Базовый каталог: - / user / srav / Подкаталоги: - / user / srav / 20190101 / user / srav / 20180101
У меня есть файлы .dat в моих подкаталогах / user / srav / 20190101 / test1.dat, /user/srav/20180101/test2.dat Мне нужно скопировать их в / user / srav / и заархивировать папки 20190101, 20180101. Пожалуйста, предложите, как мы могли бы реализовать это, используя spark / scala (spark ver 2.0)