У меня есть кластер SPARK с Yarn, и я хочу поместить банку своей работы в S3, 100% совместимое хранилище объектов. Если я хочу отправить задание, я выполняю поиск в Google и, кажется, просто так: spark-submit --master yarn --deploy-mode cluster <... другие параметры ...> s3: // my_ bucket / jar_file Однако хранилище объектов S3 требует имя пользователя и пароль для доступа. Итак, как мне настроить эти учетные данные, чтобы SPARRK мог загрузить банку с S3? Большое спасибо!