Есть ли какие-либо другие возможности для мониторинга и проверки больших заданий distoop, кластера в кластер, заданий копирования hdfs, помимо проверки журналов yarn / mapreduce?(миллионы маленьких и больших файлов, оценка времени выполнения: пара дней, изменение скорости сети из-за виртуализированной среды и параллельного использования кластера)
Использование DistCp V2 и Apache Hadoop 2.7.3 на HDP 2.6.1