Использование алгоритма априори для рекомендаций - PullRequest
4 голосов
/ 10 августа 2009

Итак, недавний вопрос заставил меня осознать довольно крутой априорный алгоритм . Я понимаю, почему это работает, но я не уверен насчет практического использования. Предположительно, основной причиной для вычисления связанных наборов предметов является возможность давать рекомендации для кого-либо на основе их собственных покупок (или принадлежащих предметов, и так далее). Но как перейти от набора связанных элементов к индивидуальным рекомендациям?

Завершается статья в Википедии:

Вторая проблема заключается в создании правила ассоциации от тех больших наборы элементов с ограничениями минимальная уверенность Предположим, один из большие наборы элементов Lk, Lk = {I1, I2,… , Ik}, правила ассоциации с этим наборы элементов генерируются в следующим образом: первое правило: {I1, I2,…, Ik-1} ⇒ {Ik}, проверив уверенность это правило может быть определено как интересно или нет. Тогда другое правило генерируются путем удаления последнего предметы в антецеденте и вставка это к последующему, далее конфиденциальность новых правил проверил, чтобы определить интересность их. Те процессы повторяются до антецедент становится пустым

Однако я не уверен, как набор правил ассоциации помогает определить лучший набор рекомендаций. Возможно, я упускаю суть, и apriori не предназначен для этого использования? В каком случае это для чего он предназначен?

Ответы [ 2 ]

2 голосов
/ 10 августа 2009

Таким образом, алгоритм apriori больше не является современным для Анализ корзины рынка (он же Майнинг правил ассоциации ). Методы улучшились, хотя принцип Априори (поддержка подмножества верхних границ ограничивает поддержку множества) по-прежнему является движущей силой.

В любом случае, правила ассоциации, используемые для генерации рекомендаций, заключаются в том, что, учитывая некоторый набор элементов истории, мы можем проверить антецедент каждого правила, чтобы увидеть, содержится ли он в истории. Если это так, то мы можем рекомендовать следствие правила (конечно, исключая случаи, когда следствие уже содержится в истории).

Мы можем использовать различные метрики для ранжирования наших рекомендаций, поскольку при наличии множества правил у нас может быть много совпадений при сравнении их с историей, и мы можем давать только ограниченное количество рекомендаций. Некоторые полезные метрики: поддержка правила (что совпадает с поддержкой объединения предшествующего и последующего), достоверность правила (поддержка правило над опорой антецедента) и подъем правила (опора правила над продуктом поддержки антецедента и последующего), среди прочих.

0 голосов
/ 27 марта 2012

Если вам нужны подробности о том, как Apriori можно использовать для классификации, вы можете прочитать статью об алгоритме CBA:

Бин Лю, Винн Хсу, Имин Ма, «Интеграция классификации и майнинг правил ассоциации». Материалы четвертой Международной конференции по обнаружению знаний и интеллектуальному анализу данных (KDD-98, Пленарная презентация), Нью-Йорк, США, 1998

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...