Каков наилучший способ перебрать Spark Dataframe (используя Pyspark) и найти тип данных Decimal(38,10)
-> изменить его на Bigint (и сохранить все в одном и том же кадре данных)?
У меня есть часть для изменения типов данных - например:
df = df.withColumn("COLUMN_X", df["COLUMN_X"].cast(IntegerType()))
, но пытается найти и интегрировать с итерацией.
Спасибо.