Сравнение частот текста в документе с частотой в корпусе - PullRequest
0 голосов
/ 07 декабря 2010

Я хочу проанализировать документ на предмет таких элементов, как буквы, биграммы, слова и т. Д., И сравнить, как часто они встречаются в моем документе, с тем, как часто они встречались в большом объеме документов.

Идея состоит в том, что такие слова, как "если", "и", "the", встречаются во всех документах, но некоторые слова будут встречаться в этом документе гораздо чаще, чем это характерно для корпуса.

Это должно быть довольно стандартно. Как это называется? Делая это очевидным образом, у меня всегда были проблемы с новыми словами в моем документе, но не в бесконечно значимом рейтинге корпусов. Как с этим справляются?

Ответы [ 2 ]

1 голос
/ 07 декабря 2010

Скорее всего, вы уже проверили tf-idf или другие метрики из семейства okapi_bm25 .

, также вы можете проверить обработку естественного языкаИнструментарий NLTK для некоторых готовых решений

ОБНОВЛЕНИЕ: как и для новых слов, следует применять сглаживание: Good-Turing , Лаплас и т. д.

1 голос
/ 07 декабря 2010

Он относится к линейным классификаторам, причем наивные байесовские классификаторы являются наиболее известной формой (благодаря своей удивительной простоте и надежности в решении задач классификации в реальном мире).

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...