Я пытаюсь заставить sparklyr
работать на кластере с Hadoop.Когда я запускаю sc <- spark_connect(master = "yarn-client", version = "2.8.5")
, я получаю это сообщение об ошибке:
Error in force(code) :
Failed during initialize_connection: org.apache.hadoop.security.AccessControlException: Permission denied: user=rstudio, access=WRITE, inode="/user":hdfs:hadoop:drwxr-xr-x
at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.check(FSPermissionChecker.java:319)
at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkPermission(FSPermissionChecker.java:219)
at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkPermission(FSPermissionChecker.java:189)
...
Пользователь rstudio - это то, что я создал для сервера RStudio.Как мне исправить разрешения, чтобы заставить его работать?