У меня есть искровой фрейм данных с 10 столбцами, которые я записываю в таблицу в формате hdf.У меня проблемы с начальным и конечным пробелами в столбцах (все поля и все строки).
from pyspark.sql import SparkSession
spark = SparkSession.builder.appName('Networks').getOrCreate()
dataset = spark.read.csv('Networks_arin_db_2-20-2019_parsed.csv', header=True, inferSchema=True)
#dataset.show(5)
Я использую следующие параметры, которыеЯ нашел поиск вокруг:
dataset.write \
.option("parserLib","univocity") \
.option("ignoreLeadingWhiteSpace","false") \
.option("ignoreTrailingWhiteSpace","false") \
.mode("append") \
.option("path", "/user/hive/warehouse/analytics.db/arin_network") \
.saveAsTable("analytics.arin_network")
Но я все еще получаю пробелы в моих таблицах в hdfs:
Большинствопримеры, которые я могу найти, это Scala.Есть ли способ, которым я могу успешно сделать это с помощью pyspark?Моя версия Spark - 2.2.0.
Когда я запрашиваю 5 пробелов после первой кавычки, я получаю результат: