Я перебираю каталог, собираю каждый CSV.Внутри каждого CSV я строю простую таблицу частот на основе одного из столбцов.Оттуда;Я запускаю цикл и строю следующую таблицу частот.Я превращаю его в фрейм данных, связываю строки с предыдущей таблицей, группирую и снова вычисляю новую сумму.
for( i in 2:length(lFolders) )
{
print( paste0("Currently evaluating folder number: ", i - 1 ) )
lCSVPath <- paste0( lFolders[i], "/details.csv" )
lData <- read.csv2( file = lCSVPath, header = TRUE, sep="," )
lTemp <- table( lData[,"name"] )
lTemp <- lTemp %>%
as.data.frame( stringsAsFactors = F ) %>%
setNames( c( "Name", "Frequency" ) )
lTotalTable <- bind_rows( lTotalTable, lTemp ) %>%
group_by( User ) %>%
summarize( Frequency = sum(Frequency) )
}
Это, однако, приводит к огромным частотным показателям, даже на раннем этапе, которые просто невозможны,Я не могу понять, что я сделал неправильно, хотя.Я также попытался запустить ungroup () после функции суммирования.Надеясь, что кто-то может указать мне правильное направление и показать, где моя логика неверна.
Спасибо!