Я думаю, что ответил на этот вопрос небольшим тестом. Поэтому я собираюсь уйти отсюда на случай, если это кому-нибудь пригодится:
Я провел эксперимент, в котором я создал фиктивный набор данных с 3 наблюдениями (A = 1, B = 2, C = 4), рассчитал евклидово расстояние между точками и изменил число признаков, чтобы увидеть, начинает ли дифференцироваться соотношение расстояний между точками при увеличении характеристик.
После 2 объектов:
0 1 2 ratio
0 0.00 1.41 4.24 3.00
1 0.00 1.41 2.83 2.00
2 0.00 2.83 4.24 1.50
После 100 функций:
0 1 2 ratio
0 0.00 10.00 30.00 3.00
1 0.00 10.00 20.00 2.00
2 0.00 20.00 30.00 1.50
После 1000 функций:
0 1 2 ratio
0 0.00 31.62 94.87 3.00
1 0.00 31.62 63.25 2.00
2 0.00 63.25 94.87 1.50
После 10000 функций:
0 1 2 ratio
0 0.00 100.00 300.00 3.00
1 0.00 100.00 200.00 2.00
2 0.00 200.00 300.00 1.50
Что это значит? Проклятие высокой размерности не возникает, когда размеры фиксированы. Можно видеть, что отношение расстояний между первой ближайшей точкой (1) и второй ближайшей точкой (2) остается постоянным, когда число измерений увеличивается.
Чтобы выразить это в перспективе, да, вы путешествуете больше очков, но это имеет смысл, так как ваше общее пространство данных увеличивается с каждой добавленной функцией. Однако соотношение перемещений между точками остается неизменным, и вот что имеет значение.
Если честно, я не вижу такой проблемы со знаменитым «проклятием высокой размерности», если только вы не находитесь в ситуации, когда вам нужно сравнить те же точки в варианте n измерений.