Я использую метод import cucumber.api.cli.Main
для вызова основного метода огурца, например
Main.main(
Array(glue,gluePath,tag,tagName,plugin,pluginNameAndPath,
"hdfs:///user/test/hdfs.feature"))
Можно ли читать файлы объектов из расположения HDFS, так как он работает с локальным путем?
Способ чтения пути hdfs -
val fs = FileSystem.get(new Configuration());
val fsDataInputStream = fs.open(new Path("/user/test/hdfs.feature"))
, который я также могу преобразовать во входной поток, но проблема заключается в том, что Array () принимает только строку, а читатель hdfs возвращает входной поток, а также FileSystem.Есть ли какое-либо решение этой проблемы?
Для получения дополнительной информации - эта проблема существует, когда я использую "spark-submit --master yarn --deploy-mode cluster ".
Работает нормально для "spark-submit --master yarn --deploy-mode client ".