Я могу запустить полный экспорт таблицы postgresql с помощью задания sq oop в hadoop / google datapro c, чтобы экспортировать его в корзину хранения Google. Но когда я пытаюсь выполнить инкрементный экспорт, это не удается.
gcloud dataproc jobs submit hadoop \
--cluster="$CLUSTER_NAME" \
--class=org.apache.sqoop.Sqoop \
--properties=mapreduce.job.classloader=true \
--jars="$UBER_JAR" \
--region="$CLUSTER_REGION" \
-- job --create "$job_name" \
-- import \
--connect="${CONNECTION_STRING}" \
--username="${SOURCE_USER}" \
--password="${SOURCE_PASSWORD}" \
--target-dir="gs://$WAREHOUSE_BUCKET_NAME/${EXPORT_DIRNAME}/${job_name}" \
--table="$table_name" \
--as-avrodatafile \
--incremental=append \
--split-by="${split_by}" \
--check-column created \
--last-value "2017-01-01 00:00:00.000000" \
--verbose
В журналах указывается, что он смог экспортировать данные, но в области хранения Google ничего не появляется. Я вижу предупреждение "util.AppendUtils: невозможно добавить файлы в целевой каталог; такого каталога нет" :
...
20/03/13 20:52:18 INFO mapreduce.ImportJobBase: Transferred 4.6844 MB in 15.9306 seconds (301.106 KB/sec)
20/03/13 20:52:18 INFO mapreduce.ImportJobBase: Retrieved 27783 records.
20/03/13 20:52:18 DEBUG util.ClassLoaderStack: Restoring classloader: sun.misc.Launcher$AppClassLoader@7dc36524
20/03/13 20:52:18 WARN util.AppendUtils: Cannot append files to target dir; no such directory: _sqoop/df1bc552c9754b5aa2db3a6c04b03a75_insights_action
20/03/13 20:52:18 INFO tool.ImportTool: Incremental import complete! To run another incremental import of all data following this import, supply the following arguments:
20/03/13 20:52:18 INFO tool.ImportTool: --incremental append
20/03/13 20:52:18 INFO tool.ImportTool: --check-column created
20/03/13 20:52:18 INFO tool.ImportTool: --last-value 2020-03-13 14:54:01.997784
20/03/13 20:52:18 INFO tool.ImportTool: (Consider saving this with 'sqoop job --create')
Job [1673b419f6c042d18dd8124f06e9c412] finished successfully.
Есть идеи, если для этого есть обходной путь?