Чего именно вы хотите достичь? Группировать похожие матрицы, верно?
С K-означают, вы не будете иметь много удовольствия здесь. Матрицы смежности являются двоичными; интерпретировать их как огромные векторы и вычислять на них расстояние L-p-нормы (например, евклидово расстояние), а затем вычислять средние матрицы - то, что делает k-означает - мне не кажется разумным. Кроме того, вы, вероятно, будете укушены проклятием размерности . Большое количество измерений сделает все матрицы похожими.
Практически для любого алгоритма кластеризации первый вопрос вы в качестве «эксперта по области» должен будет ответить: что делает две матрицы смежности похожими? Как только вы формализовали это вы сможете запускать множество алгоритмов кластеризации, включая классическую кластеризацию с одним каналом, DBSCAN или OPTICS.