Сбой задания Spark Dataproc из-за невозможности переименовать ошибку в GCS - PullRequest
0 голосов
/ 29 января 2019

У меня есть искровое задание, которое не выполняется из-за следующей ошибки.

 org.apache.spark.SparkException: Job aborted due to stage failure: Task 0 in stage 34338.0 failed 4 times, most recent failure: Lost task 0.3 in stage 34338.0 (TID 61601, homeplus-cmp-transient-20190128165855-w-0.c.dh-homeplus-cmp-35920.internal, executor 80): java.io.IOException: Failed to rename FileStatus{path=gs://bucket/models/2018-01-30/model_0002002525030015/metadata/_temporary/0/_temporary/attempt_20190128173835_34338_m_000000_61601/part-00000; isDirectory=false; length=357; replication=3; blocksize=134217728; modification_time=1548697131902; access_time=1548697131902; owner=yarn; group=yarn; permission=rwx------; isSymlink=false} to gs://bucket/models/2018-01-30/model_0002002525030015/metadata/attempt_20190128173835_34338_m_000000_61601/attempt_20190128173835_34338_m_000000_61601/attempt_20190128173835_34338_m_000000_61601/attempt_20190128173835_34338_m_000000_61601/attempt_20190128173835_34338_m_000000_61601/attempt_20190128173835_34338_m_000000_61601/attempt_20190128173835_34338_m_000000_61601/part-00000

Я не могу выяснить, какого разрешения не хватает, поскольку заданию Spark удалось записать временные файлы,Я предполагаю, что уже есть разрешения на запись.

1 Ответ

0 голосов
/ 15 марта 2019

За комментарий OP, проблема была в конфигурации разрешений:

Так что я понял, что у меня была только Storage Legacy Owner роль в корзине.Я также добавил роль Storage Admin, и это, похоже, решило проблему.Благодарю.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...