Бэкэнд, который загружает данные из s3, это s3fs, и у него есть раздел с учетными данными здесь , который в основном указывает на документацию boto3.
Краткий ответ: существует несколько способов предоставления учетных данных S3, некоторые из которых являются автоматическими (файл в нужном месте или переменные среды - которые должны быть доступны всем работникам или службе метаданных кластера).
В качестве альтернативы, вы можете предоставить свой ключ / секрет непосредственно в вызове, но это, конечно, должно означать, что вы доверяете своей платформе исполнения и общению между работниками
df = dd.read_csv('s3://mybucket/some-big.csv', storage_options = {'key': mykey, 'secret': mysecret})
Набор параметров, которые вы можете передать в storage_options
при использовании s3fs, можно найти в API документах .
Общая справка http://docs.dask.org/en/latest/remote-data-services.html