На аналогичный вопрос есть ответы в SO, но это требование немного отличается. na.fill в Spark DataFrame Scala
У меня есть примерный кадр данных, как показано ниже. Каждый столбец в кадре данных имеет разные типы данных. Таким образом, использование df.na.fill
не работает для замены всех нулевых значений.
+-------------------------+-------------------------+-------------------------+
| date | id | name |
+-------------------------+-------------------------+-------------------------+
| 2000-01-01 | NULL | ABC |
| NULL | 123 | NULL |
| NULL | NULL | CDE |
+-------------------------+-------------------------+-------------------------+
Таким образом, независимо от типа данных столбца все NULL должны быть заменены пустой строкой. Число и имя столбцов в кадре данных будут постоянно меняться.
В зависимости от типа данных входного кадра данных следует заменить NULL.
Схема этого кадра данных:
root
|-- date: timestamp (nullable = false)
|-- id: integer (nullable = true)
|-- points_redeemed: string (nullable = false)
Ожидаемый результат:
+-------------------------+-------------------------+-------------------------+
| date | id | name |
+-------------------------+-------------------------+-------------------------+
| 2000-01-01 | | ABC |
| | 123 | |
| | | CDE |
+-------------------------+-------------------------+-------------------------+
Может кто-нибудь посоветовать?