Я хочу изменить свои данные с 4x3 до 2x2 в pyspark без агрегирования. Мой текущий вывод следующий:
columns = ['FAULTY', 'value_HIGH', 'count']
vals = [
(1, 0, 141),
(0, 0, 140),
(1, 1, 21),
(0, 1, 12)
]
Мне нужна таблица непредвиденных расходов со вторым столбцом в виде двух новых двоичных столбцов (value_HIGH_1
, value_HIGH_0
) и значениями из столбца count
, что означает:
columns = ['FAULTY', 'value_HIGH_1', 'value_HIGH_0']
vals = [
(1, 21, 141),
(0, 12, 140)
]