, если вы хотите иметь только заголовочный файл. Вы можете использовать сгиб влево, чтобы создать каждый столбец с пробелами и сохранить его как CSV. Я не использовал pyspark, но это то, как это можно сделать в Scala. большая часть кода должна быть многократно используемой, вам нужно будет просто поработать над ее преобразованием в pyspark
val path ="/user/test"
val newdf=df.columns.foldleft(df){(tempdf,cols)=>
tempdf.withColumn(cols, lit(""))}
создать метод для записи файла заголовка
def createHeaderFile(headerFilePath: String, colNames: Array[String]) {
//format header file path
val fileName = "yourfileName.csv"
val headerFileFullName = "%s/%s".format(headerFilePath, fileName)
val hadoopConfig = new Configuration()
val fileSystem = FileSystem.get(hadoopConfig)
val output = fileSystem.create(new Path(headerFileFullName))
val writer = new PrintWriter(output)
for (h <- colNames) {
writer.write(h + ",")
}
writer.write("\n")
writer.close()
}
позвони на свой DF
createHeaderFile(path, newdf.columns)