как подсчитать общее количество « токенов » в столбце после использования nltk.word_tokenizer
from nltk.tokenize import word_tokenize
train['doc_text'].apply(word_tokenize)
Я попытался подсчитать значения, но это не работает, я думаю, потому чтоЯ имею дело со строками.
Есть более 18K строк, и, как и ожидалось, после выполнения word_tokenize
в каждой строке есть отдельные слова.
Я хотел бы знать общее количество 'у меня есть жетоны в столбце.