Я работал над простой системой рекомендаций, я начал с априорного алгоритма с использованием arules в R. К моему удивлению, я получил 0 правил, когда поддержка была больше 0,0001, что слишком мало для поддержки. Я выяснил, что причиной этого может быть то, что дубликаты в каждой транзакции удаляются. Я попытался решить эту проблему, установив удаление дубликатов как ложное:
df = read.transactions("transactions.csv",sep = ',',rm.duplicates = FALSE)
Но это не сработало, и я получил следующее
Warning message:
In asMethod(object) : removing duplicated items in transactions
Так есть ли способ решить эту проблему, или есть лучший способ учитывать количество каждого элемента в каждой транзакции в коде? Есть ли лучший вариант в Python или любой другой язык? Было бы здорово, если бы кто-нибудь помог мне в этом.