Я пытаюсь работать с tidytext, с файлом .txt с именем: texto_revision
со следующей структурой:
# A tibble: 254 x 230
X1 X2 X3 X4 X5 X6 X7 X8 X9 X10 X11 X12 X13 X14 X15 X16
<chr> <chr> <chr> <chr> <chr> <chr> <chr> <chr> <chr> <chr> <chr> <chr> <chr> <chr> <chr> <chr>
1 la expro~ de la tier~ ocur~ con frec~ dura~ el proc~ rapi~ de la urba~ en
2 como las difer~ en el moti~ del cons~ cons~ en esta~ unid~ y china afec~ la
3 las desig~ etnic~ en los patr~ de cons~ (pre~ de vest~ joye~ auto~ han sido obje~
4 este artic~ exami~ el impa~ de vari~ dife~ indi~ en la prop~ de los cons~ a
5 este artic~ inves~ la infl~ de los regi~ poli~ sobre la impo~
# ...
При попытке использовать формат unnest_tokens
со следующим кодом:
library(tidytext)
texto_revision %>%
unnest_tokens(word, text)
Я получаю следующую ошибку:
Ошибка:
Ошибка в check_input (x):
Входные данные должны быть символьным вектором любой длины или списком символов
векторы, каждый из которых имеет длину 1.
Чтобы попытаться исправить ошибку и продолжить работу с токенизацией, я попытался преобразовать текст во фрейм данных со следующим кодом:
text_df <- as.data.frame(texto_revision)
но я все еще получаю следующую ошибку
Ошибка в check_input (x):
Входные данные должны быть символьным вектором любой длины или списком символов
векторы, каждый из которых имеет длину 1.