Я читаю паркет с:
df = spark.read.parquet(file_name)
И получите столбцы с:
df.columns
И возвращает список столбцов ['col1', 'col2', 'col3']
Я прочитал, что формат паркета может хранить некоторые метаданные в файле.
Есть ли способ хранить и читать дополнительные метаданные, например, прикреплять человеческое описание каждого столбца?
Спасибо.