Как указать дополнительные токены для токенизатора? - PullRequest
0 голосов
/ 24 мая 2019

Я хочу маркировать текст с помощью gensim.utils.tokenize(). И я хочу добавить несколько фраз, которые будут распознаваться как одиночные токены, например: 'New York', 'Long Island'.

Возможно ли это с gensim? Если нет, какие еще библиотеки можно использовать?

1 Ответ

0 голосов
/ 24 мая 2019

Я нашел решение с nltk:

tokenizer = nltk.tokenize.mwe.MWETokenizer([('hors', "d'oeuvre")], separator=' ')
tokenizer.tokenize("An hors d'oeuvre tonight, sir?".split())

['An', "hors d'oeuvre", 'tonight,', 'sir?']
...