Я пытаюсь выполнить анализ текста для следующего текста file .Код, который я написал для токенизации этого текста после его импорта:
my_data <- read.delim("5KjlUO.txt")
library(tokenizers)
library(SnowballC)
tokenize_words(my_data$ACT.I)
tokenize_words(my_data)
Я получаю следующую ошибку:
Ошибка в check_input (x): входные данные должны бытьвектор символов любой длины или список векторов символов, каждый из которых имеет длину 1.
Может кто-нибудь помочь мне решить эту проблему.