Google Dataflow - Как указать TextIO при записи на предварительный сервер из Dataflow? (При условии, что сервер On-prem подключен к GCP с помощью Cloud VPN)
pipeline.apply("Writer",TextIO.write().to("XXX.XXX.XXX.XXX://tmp/somedirectory/somefilename");
Работает ли предоставление локального IP-адреса и каталога, как описано выше, при запуске задания потока данных? Я попытался, и работа была успешно завершена с элементами, добавленными в сводку шагов, но я не вижу файлов, записанных на предварительном сервере.
[Не уверен, имеет ли это какое-либо отношение к аутентификации на локальном сервере]