Я новичок в Pentaho и у меня есть работа, которая выводит CSV на S3.Это работает на моей локальной машине нормально (я думаю, используя мои учетные данные .aws).Я пытаюсь запланировать работу, поэтому установлены переменные среды.Вывод S3 в Пентахо использует, я полагаю,
s: // access_key: secret_key @ s3 / bucket / path
Я установил оба ключа как переменные $ {AWS_ACCESS_KEY_ID}, $ {AWS_SECRET_ACCESS_KEY}.И они отлично работают, так как предыдущий шаг использует их для подключения к Redshift.Можно также увидеть их применение в журналах.
Однако, когда он добирается до шага вывода S3, он не может найти ведро.
2019/04/11 16:02:40 - sgf.load - ERROR (version 8.1.0.0-365, build 8.1.0.0-365 from 2018-04-30 09.42.24 by buildguy) : Couldn't open file s3://bucket/path/blah.csv
2019/04/11 16:02:40 - sgf.load - ERROR (version 8.1.0.0-365, build 8.1.0.0-365 from 2018-04-30 09.42.24 by buildguy) : org.pentaho.di.core.exception.KettleException:
2019/04/11 16:02:40 - sgf.load - Error opening new file : org.apache.commons.vfs2.FileSystemException: Could not create folder "s3://bucket/path".