Как я могу токенизировать текстовый файл - PullRequest
0 голосов
/ 24 августа 2018

Я пытаюсь выполнить анализ текста для следующего текста file .Код, который я написал для токенизации этого текста после его импорта:

my_data <- read.delim("5KjlUO.txt")
library(tokenizers)
library(SnowballC)
tokenize_words(my_data$ACT.I)
tokenize_words(my_data)

Я получаю следующую ошибку:

Ошибка в check_input (x): входные данные должны бытьвектор символов любой длины или список векторов символов, каждый из которых имеет длину 1.

Может кто-нибудь помочь мне решить эту проблему.

...