У меня есть простой CSV-файл с разделителем каналов, который я могу загрузить в Databricks, затем отключить df, и он отобразится хорошо. Затем я пытаюсь с моим основным набором данных, который отформатирован таким же образом, и экспорт с сервера SQL. После загрузки вывод показывает, что он был загружен (перечислены имена полей и тип данных, которые он вывел - вся строка, хотя это не является хорошим признаком)
df = spark.read.format("csv").options(header='true', quote='"', delimiter="|",ignoreLeadingWhiteSpace='true',inferSchema='true').load("/mnt/gl/mainfile.csv")
Затем я отображаю (df) и не вижу хорошего дисплея. Вместо этого он показывает следующее:
Job 34 View
(Stages: 1/1)
Job 35 View
(Stages: 1/1)
Job 36 View
(Stages: 1/1)
Очевидно, что здесь виноват CSV, но я не знаю, как решить эту проблему - я уже был осторожен с тем, как экспортировать его из SQL-сервера, поэтому не уверен, что я буду делать по-другому там.