Ошибка экспорта данных из hdfs в oracle с помощью Sqoop - PullRequest
0 голосов
/ 05 марта 2019

Мы написали Apache Spark для хранения набора данных в формате HDFS в .csv. Мы пытаемся экспортировать данные в формате .csv в Oracle, используя SQOOP, однако мы получаем ошибку ниже:

INFO mapreduce.Job:  map 0% reduce 0%
19/03/05 04:59:44 INFO mapreduce.Job:  map 100% reduce 0%
19/03/05 04:59:44 INFO mapreduce.Job: Job job_1550654261086_0043 failed with state FAILED due to: Task failed task_1550654261086_0043_m_000000
Job failed as tasks failed. failedMaps:1 failedReduces:0

19/03/05 04:59:44 INFO mapreduce.Job: Counters: 9
        Job Counters
                Failed map tasks=1
                Killed map tasks=1
                Launched map tasks=2
                Data-local map tasks=2
                Total time spent by all maps in occupied slots (ms)=71040
                Total time spent by all reduces in occupied slots (ms)=0
                Total time spent by all map tasks (ms)=7104
                Total vcore-milliseconds taken by all map tasks=170496
                Total megabyte-milliseconds taken by all map tasks=727449600
19/03/05 04:59:44 WARN mapreduce.Counters: Group FileSystemCounters is deprecated. Use org.apache.hadoop.mapreduce.FileSystemCounter instead
19/03/05 04:59:44 INFO mapreduce.ExportJobBase: Transferred 0 bytes in 13.2314 seconds (0 bytes/sec)
19/03/05 04:59:44 WARN mapreduce.Counters: Group org.apache.hadoop.mapred.Task$Counter is deprecated. Use org.apache.hadoop.mapreduce.TaskCounter instead
19/03/05 04:59:44 INFO mapreduce.ExportJobBase: Exported 0 records.
19/03/05 04:59:44 ERROR mapreduce.ExportJobBase: Export job failed!
19/03/05 04:59:44 DEBUG util.ClassLoaderStack: Restoring classloader: sun.misc.Launcher$AppClassLoader@36aa7bc2
19/03/05 04:59:44 ERROR tool.ExportTool: Error during export:
Export job failed!
        at org.apache.sqoop.mapreduce.ExportJobBase.runExport(ExportJobBase.java:445)
        at org.apache.sqoop.manager.SqlManager.updateTable(SqlManager.java:965)
        at org.apache.sqoop.tool.ExportTool.exportTable(ExportTool.java:70)
        at org.apache.sqoop.tool.ExportTool.run(ExportTool.java:99)
        at org.apache.sqoop.Sqoop.run(Sqoop.java:147)
        at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:70)
        at org.apache.sqoop.Sqoop.runSqoop(Sqoop.java:183)
        at org.apache.sqoop.Sqoop.runTool(Sqoop.java:234)
        at org.apache.sqoop.Sqoop.runTool(Sqoop.java:243)
        at org.apache.sqoop.Sqoop.main(Sqoop.java:252)

Мы используем следующую команду:

sqoop export --verbose --connect jdbc:oracle:thin:@//10.180.25.169:1521/Sparc261 --username cisadm --password cisadm --table HADOOP_TEMP --m 2 --export-dir /user/hadoop/Test  --batch --update-key TXN_DETAIL_ID  --input-fields-terminated-by ',' --input-lines-terminated-by '\n'

.csv Данные файла:

184792385,TEST,PERFTXN,PERFTXN,2017-01-01T00:00:00.000+05:30,,,PERF1,,1000.000000000000000000,1000.000000000000000000,USD,N,SYSUSER,+,0,0,AUTO,USA,GBP,VIP,,,,,,,,,,,,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,,0E-18,,0E-18,,0E-18,,0E-18,,,,,,,,UPLD,,1,Y,,C1_F_ANO,1427001000,,,,,,,,,,,,,N,,,,,,,,,,,,,,,,,,,,,,,,,,,,,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,,,,,
184792386,TEST,PERFTXN,PERFTXN,1990-01-01T00:00:00.000+05:30,,,PERF1,,2000.000000000000000000,2000.000000000000000000,USD,N,SYSUSER,+,0,0,AUTO,USA,GBP,VIP,,,,,,,,,,,,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,,0E-18,,0E-18,,0E-18,,0E-18,,,,,,,,UPLD,,1,Y,,C1_F_ANO,1427001000,,,,,,,,,,,,,N,,,,,,,,,,,,,,,,,,,,,,,,,,,,,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,0E-18,,,,,

Может ли кто-нибудь помочь относительно того же?

UPDATE

После нескольких попыток мы заметили, что формат данных Spark для DATE и NUMBER может вызывать проблему при экспорте с использованием SQOOP.

Как мне решить эту проблему?

...