Мой ответ ниже. Мы просто переименовываем колонку с побегом. Вы должны сделать это непосредственно перед записью в базу данных, т.е. оператором df.write.
from pyspark.sql.functions import *
from pyspark.sql.types import *
values = [("112 Street, Pune","Stacky"),
("220 Street, Mumbai","John")]
rdd = sc.parallelize(values)
schema = StructType([StructField("address", StringType(), True),
StructField("name", StringType(), True)])
data = spark.createDataFrame(rdd, schema)
data.show(20,False)
+------------------+------+
|address |name |
+------------------+------+
|112 Street, Pune |Stacky|
|220 Street, Mumbai|John |
+------------------+------+
data = data.withColumnRenamed("name","\"name\"")
data.show()
+------------------+------+
| address|"name"|
+------------------+------+
|112 Street, Pune |Stacky|
|220 Street, Mumbai| John|
+------------------+------+