Предположим, у меня есть большой список, подобный следующему:
lst = [['david', 'italy', 234], ['alice', 'france', 517], ['kim', 'japan', 673], ...]
Я хочу создать таблицу с тремя столбцами: name, country и num и сохранить ее как паркет в формате hdf.
как мне это сделать с помощью pyspark?
лучше сохранить этот список в виде файла csv и загрузить его непосредственно в pyspark или нет?