Как запустить команду файловой системы HDFS через Spark? - PullRequest
0 голосов
/ 10 июня 2019

Я могу запустить эту команду для HDFS:

hadoop fs -ls /user/hive/warehouse/databasename.db/tablename

Как написать команду в Spark, чтобы показать все файлы в определенной папке в HDFS?

Спасибо.

1 Ответ

0 голосов
/ 12 июня 2019

ОК, приведенный ниже код scala просто дает вам возможность распечатать все файлы hdfs по родительскому пути. Вы можете улучшить его в соответствии со своими потребностями.

  def getAllPaths(parentPath:String, fs: FileSystem) = {
    val fileStatus = fs.listStatus(new Path(parentPath))
    for( file<- fileStatus) {
      println(file.getPath.toString)
    }
  }
...