У меня есть необработанный pyspark Dataframe со столбцом инкапсуляции.Мне нужно зациклить все столбцы, чтобы развернуть эти столбцы.Я не знаю названия столбцов, и они могут измениться.Поэтому мне нужен общий алгоритм.Проблема в том, что я не могу использовать классический цикл (для), потому что мне нужен параллельный код.
Пример данных:
Timestamp | Layers
1456982 | [[1, 2],[3,4]]
1486542 | [[3,5], [5,5]]
В слоях это столбец, который содержит другие столбцы(со своими именами столбцов).Моя цель - получить что-то вроде этого:
Timestamp | label | number1 | text | value
1456982 | 1 | 2 |3 |4
1486542 | 3 | 5 |5 |5
Как сделать цикл для столбцов с функцией pyspark?
Спасибо за совет