Может ли Spring Cloud Dataflow, работающий на Pivotal Cloud Foun dry, записывать файлы на сервер Prem? - PullRequest
0 голосов
/ 23 апреля 2020

Я был выключен и экспериментировал с Spring Dataflow последние несколько месяцев. Я выполняю поток данных на своем компьютере, используя контейнер Docker. У меня есть несколько вариантов использования, которые либо захватывают файл с FTP-сайта и записывают его в локальный общий файловый ресурс, либо записывают файл с локального файлообменника на FTP-сайт. Казалось, что Dataflow будет отличным решением для этого.

Моя компания переходит на Pivotal Cloud Foun dry, и намеревался запустить Dataflow на нем. Мне недавно сказали, что у PCF нет простого способа записи файлов на мои локальные серверы. Есть ли способ смонтировать том, аналогичный тому, что вы делаете с docker, чтобы я мог использовать готовые приложения File Source и Sink, которые поставляются с Dataflow?

1 Ответ

1 голос
/ 24 апреля 2020

Да, вы можете использовать Volume Services. Если вы развернете Spring Cloud DataFlow в Pivotal Cloud Foun dry, все, что будет развернуто SCDF, будет Java приложениями, и все они будут работать в Linux ячейках. Linux Ячейки поддерживают драйверы NFS и SMB Volume Service.

Если ваши исходный и / или целевой серверы Windows, это тоже хорошо. Вам просто нужно использовать SMB Volume Service, поскольку NFS не будет работать с Windows. Чтобы убедиться, что службы томов SMB включены, см. Следующий документ.

https://docs.pivotal.io/platform/application-service/operating/enable-vol-services.html#smb -ключить

Затем вы сможете смонтировать Windows томов в ваши приложения, используя следующие инструкции.

https://docs.pivotal.io/pivotalcf/devguide/services/using-vol-services.html#smb

...