Наиболее представительный экземпляр кластера - PullRequest
4 голосов
/ 18 января 2010

После выполнения кластерного анализа в моем наборе данных (фрейм данных с именем data.matrix ) я добавил в конец новый столбец с именем cluster , содержащий столбец 27 имя кластера, которому принадлежит каждый экземпляр.

То, что я хочу сейчас, это репрезентативный экземпляр из каждого кластера. Я попытался найти экземпляр, имеющий наименьшее евклидово расстояние от центроида кластера (и повторил процедуру для каждого из моих кластеров)

Это то, что я сделал. Можете ли вы придумать другие, возможно, более элегантные способы? (предположим, числовые столбцы без нулей).

clusters <- levels(data.matrix$cluster)
cluster_col = c(27)

for (j in 1:length(clusters)) {
    # get the subset for cluster j
    data = data.matrix[data.matrix$cluster == clusters[j],]

    # remove the cluster column
    data <- data[,-cluster_col]

    # calculate the centroid
    cent <- mean(data)

    # copy data to data.matrix_cl, attaching a distance column at the end
    data.matrix_cl <- cbind(data, dist = apply(data, 1, function(x) {sqrt(sum((x - cent)^2))}))

    # get instances with min distance
    candidates <- data.matrix_cl[data.matrix_cl$dist == min(data.matrix_cl$dist),]

    # print their rownames
    print(paste("Candidates for cluster ",j))
    print(rownames(candidates))
}

Ответы [ 2 ]

5 голосов
/ 19 января 2010

Сначала я не знаю, если с формулой расстояния все в порядке. Я думаю, что должно быть sqrt(sum((x-cent)^2)) или sum(abs(x-cent)). Я предположил первым. Вторая мысль заключается в том, что просто решение для печати не является хорошей идеей. Поэтому я сначала вычисляю, затем печатаю. Третье - я рекомендую использовать plyr, но я даю оба решения (с и без plyr).

# Simulated data:
n <- 100
data.matrix <- cbind(
  data.frame(matrix(runif(26*n), n, 26)),
  cluster=sample(letters[1:6], n, replace=TRUE)
)
cluster_col <- which(names(data.matrix)=="cluster")

# With plyr:
require(plyr)
candidates <- dlply(data.matrix, "cluster", function(data) {
  dists <- colSums(laply(data[, -cluster_col], function(x) (x-mean(x))^2))
  rownames(data)[dists==min(dists)]
})

l_ply(names(candidates), function(c_name, c_list=candidates[[c_name]]) {
    print(paste("Candidates for cluster ",c_name))
    print(c_list)
})

# without plyr
candidates <- tapply(
  1:nrow(data.matrix),
  data.matrix$cluster,
  function(id, data=data.matrix[id, ]) {
    dists <- rowSums(sapply(data[, -cluster_col], function(x) (x-mean(x))^2))
    rownames(data)[dists==min(dists)]
  }
)

invisible(lapply(names(candidates), function(c_name, c_list=candidates[[c_name]]) {
    print(paste("Candidates for cluster ",c_name))
    print(c_list)
}))
1 голос
/ 19 января 2010

Интересует ли вас метод кластеризация k-средних ? Если так, вот как вычисляются центроиды на каждой итерации:

  1. выберите значение k (целое число, которое указывает количество кластеров для разделите ваш набор данных);

  2. случайный выбор k строк из ваших данных установить, это центроиды для 1-я итерация;

  3. рассчитать расстояние, которое каждый точка данных от каждого центроида;

  4. каждая точка данных имеет «ближайший Centroid ', который определяет его 'Группа';

  5. рассчитать среднее значение для каждого группа - это новые центроиды;

  6. вернуться к шагу 3 (критерий остановки обычно основывается на сравнении с соответствующие значения центроида в последовательные петли, т. е. если они значения меняются не более 0,01%, затем выйти).

Эти шаги в коде:

# toy data set
mx = matrix(runif60, 10, 99), nrow=12, ncol=5, byrow=F)
cndx = sample(nrow(mx), 2)
# the two centroids at iteration 1
cn1 = mx[cndx[1],]
cn2 = mx[cndx[2],]
# to calculate Pearson similarity
fnx1 = function(a){sqrt((cn1[1] - a[1])^2 + (cn1[2] - a[2])^2)}
fnx2 = function(a){sqrt((cn2[1] - a[1])^2 + (cn2[2] - a[2])^2)}
# calculate distance matrix
dx1 = apply(mx, 1, fnx1)
dx2 = apply(mx, 1, fnx2)
dx = matrix(c(dx1, dx2), nrow=2, ncol=12)
# index for extracting the new groups from the data set
ndx = apply(dx, 1, which.min)
group1 = mx[ndx==1,]
group2 = mx[ndx==2,]
# calculate the new centroids for the next iteration
new_cnt1 = apply(group1, 2, mean)
new_cnt2 = apply(group2, 2, mean)
...