Я читаю некоторые данные CSV с помощью Spark (указав схему и установив режим FAILFAST). Данные содержат столбцы разных типов, включая целые числа. Проблема в том, что некоторые целые числа имеют в конце da sh вместо начального da sh (324- вместо -324, а искра принимает их как строку). В настоящее время он не может анализировать эти значения как целые числа (и если я удалю режим FAILFAST из моего кода, он заменяет все не целые числа на null):
df = spark.read.format("com.databricks.spark.csv")
.option("sep","\t")
.option("header", header)
.option("mode", "FAILFAST")
.schema(schema)
.load(path)
Есть ли простой и быстрый способ указать искру для загрузки эти целые числа как отрицательные числа и по-прежнему сохранять режим FAILFAST?