Я пытаюсь прочитать таблицу RDBMS в базе данных Greenplum с помощью spark.У меня есть следующие столбцы:
val allColumnsSeq: Seq[String] = Seq("usd_exchange_rate", "usd_exchange_rate::character varying as usd_exchange_rate_text")
Я пытаюсь прочитать вышеуказанные столбцы в spark как:
val yearDF = spark.read.format("io.pivotal.greenplum.spark.GreenplumRelationProvider").option("url", connectionUrl)
.option("dbtable", "x_lines")
.option("dbschema","copydb")
.option("user", devUserName).option("password", devPassword)
.option("partitionColumn","id")
.load()
.where("year=2017 and month=12")
.select(allColumnsSeq map col:_*)
.withColumn(flagCol, lit(0))
В gp есть определенные столбцы, имеющие тип данных: десятичные, которые содержат точностьцифры.В приведенной выше таблице это:
usd_exchange_rate
Он содержит почти 45 цифр точности.В нашем проекте мы сохраняем исходный столбец (usd_exchange_rate) и создаем новый столбец из usd_exchange_rate в символьном типе данных и к имени его столбца, к которому добавляется _text
.В этом случае
decimal datatype: usd_exchange_rate
и тот же столбец в char datatype: usd_exchange_rate_text
Когда я выполняю вышеприведенную строку, я получаю исключение:
org.apache.spark.sql.AnalysisException: cannot resolve '`usd_exchange_rate::character varying as usd_exchange_rate_text`'
Я вижу, чточто я произвожу это в неправильном формате, но я не понимаю, как я могу прочитать один и тот же столбец в десятичном и текстовом формате за один шаг.Может ли кто-нибудь дать мне знать, если есть способ достичь этого в искре?