Может ли GCP Dataproc sqoop импортировать данные из локальной БД для помещения в GCP Storage (без GCP VPC)?
У нас есть удаленная БД Oracle, подключенная к нашей локальной сети через VPN-туннель, который мы используем кластер Hadoop для извлечения данных из каждого дня через Apache Sqoop . Хотел бы заменить этот процесс кластером GCP Dataproc для запуска заданий sqoop и хранилища GCP.
Нашел эту статью, которая, кажется, делает нечто подобное Перемещение данных с помощью Apache Sqoop в Google Cloud Dataproc , но предполагает, что пользователи имеют GCP VPC (который я не собирался покупать).
Итак, мой вопрос:
- Без этого подключения VPC может ли кластер облачных данных знать, как получать данные из БД в нашей локальной сети, используя API отправки заданий ?
- Как бы это работало, если так (возможно, я недостаточно понимаю, как рабочие места Hadoop работают / получают данные)?
- Как-нибудь иначе, если нет?