Если у меня есть список слов, как мне эффективно подсчитать количество вхождений этих слов в набор данных?
Пример:
set.seed(123)
df_data <- data.frame(
data_strings = sample(c("tom smith", "smith jim", "sam sam", "ted", "xxx"), 10, replace = TRUE)
)
df_names <- data.frame(
names = c("tom", "jim", "sam", "ted", "yyy")
)
То есть:
> df_data
data_strings
1 sam sam
2 sam sam
3 smith jim
4 smith jim
5 sam sam
6 xxx
7 ted
8 tom smith
9 smith jim
10 sam sam
и
> df_names
names
1 tom
2 jim
3 sam
4 ted
5 yyy
Я могу сделать это с помощью str_count
из пакета stringr
:
library(stringr)
library(tictoc)
tic()
df_data$counts <- as.vector(sapply(
paste(df_names[,"names"], collapse='|'),
str_count,
string=df_data$data_strings
))
toc()
Это дает желаемый результат:
> df_data
data_strings counts
1 sam sam 2
2 sam sam 2
3 smith jim 1
4 smith jim 1
5 sam sam 2
6 xxx 0
7 ted 1
8 tom smith 1
9 smith jim 1
10 sam sam 2
Однако, поскольку мои реальные данные содержат миллионы строк, и мой список слов также исчисляется миллионами. Это оказывается очень неэффективным способом получить результат. Как я могу ускорить его? Я попытался использовать больше ядер с пакетом parallel
, но он заканчивает работу в одно и то же время (используется только одно ядро, хотя я советую использовать более одного). Я на windows, поэтому я не могу проверить mclapply()
. parallel
, кажется, работает правильно, так как я могу заставить его использовать больше ядер на других примерах.
library(stringr)
library(parallel)
library(tictoc)
cl <- makeCluster(4, type = "PSOCK")
tic()
df_data$counts <- as.vector(parSapply(
cl = cl,
paste(df_names[,"names"], collapse='|'),
FUN=str_count,
string=df_data$data_strings
))
toc()
stopCluster(cl)
Какие еще подходы я могу попробовать? Что-то с data.tables? Можно ли сделать пасту внутри аппликации иначе?