У меня есть работа с python-кодом aws, которая объединяет две таблицы Aurora и записывает / выводит вывод в корзину s3 в формате json. Работа работает нормально, как и ожидалось. По умолчанию выходной файл записывается в корзину s3 в следующем формате / шаблоне «run-123456789-part-r-00000» [за кулисами находится исполняемый код pyspark в кластере hadoop, поэтому имя файла похоже на hadoop]
Теперь у меня вопрос, как написать файл с определенным именем, например, «Customer_Transaction.json» вместо «run - *** - part ****»
Я попытался преобразовать в DataFrame, а затем написать как json, как показано ниже, но не сработало
customerDF.repartition (1) .write.mode ( "перезаписать") .json ( "s3: //bucket/aws-glue/Customer_Transaction.json")