В настоящее время я работаю в кластере Dataproc в регионе Европа.
Я использую приложение spark на том же кластере. При записи в корзину с использованием коннектора облачного хранилища Google в Spark, корзины автоматически создаются с помощью мультирегионального класса и с несколькими регионами в свойствах США.
Я пишу файл, используя
dataframe.write("gs://location").mode()...
Это создаст новую область с указанными выше свойствами.
Попытка найти конфигурацию для установки класса хранилища в соединителе, но безуспешно. Как мы можем решить эту проблему.