У меня проблемы с функцией nltk.sent_tokenize
.
Мой текст (который я хочу токенизировать) состоит из 54116 предложений, разделенных точкой. Я удалил другие знаки препинания. Я хотел бы токенизировать свой текст на уровне предложения, используя nltk.sent_tokenize
.
Однако, если я применю tokenized_text = sent_tokenize(mytext)
, длина tokenized_text
составит всего 51582 вместо 54116.
Есть идеи, почему это могло произойти?
С уважением