Я пытаюсь использовать HashTF в Spark, но у меня есть одна серьезная проблема. Если у inputCol есть только один столбец, подобный этому
HashingTF(inputCol="bla",outputCol="tf_features") it works fine.
Но если я пытаюсь добавить больше столбцов, я получаю сообщение об ошибке «Невозможно преобразовать список в строку». Все, что я хочу сделать, это
HashingTF(inputCol=["a_col","b_col","c_col"], outputCol="tf_features").
Есть идеи, как это исправить?