Я использую функцию scipy.cluster.hierarchy.fclusterdata
для кластеризации списка векторов (векторов с 384 компонентами).
Это хорошо работает, но когда я пытаюсь кластеризовать большие объемы данных, мне не хватает памяти исбой программы.
Как выполнить ту же задачу, не исчерпав памяти?
На моей машине установлено 32 ГБ ОЗУ, Windows 10 x64, python 3.6 (64-разрядная версия)