Эти два метода очень разные.
PCA не показывает названия функций, потому что уменьшение размерности с помощью PCA не имеет ничего общего с относительной важностью функций. PCA берет исходные данные и преобразует их в пространство, где каждая новая «особенность» (главный компонент) не зависит от других, и вы можете сказать, насколько важен каждый главный компонент для точного представления данных на основе его соответствующего собственного значения. Удаление наименее важных главных компонентов уменьшает размерность в пространстве главных компонентов, но не в исходном пространстве признаков - поэтому вам также необходимо выполнить PCA для всех будущих данных, а затем выполнить всю вашу классификацию для (сокращенных) векторов главных компонентов.
Дополнительный древовидный классификатор обучает весь ваш классификатор вашим данным, поэтому он намного мощнее, чем просто уменьшение размерности. Тем не менее, это кажется ближе к тому, что вы ищете, так как важность функции прямо говорит вам, насколько важна каждая функция при создании классификации.
Обратите внимание, что в PCA основные компоненты с самыми высокими собственными значениями внести максимальный вклад в точное восстановление данных. Это не то же самое, что самый точный вклад в классификацию данных. Дополнительный древовидный классификатор является обратным: он сообщает, какие функции наиболее важны при классификации данных, а не при реконструкции данных.
По сути, если вы думаете, что у вас есть репрезентативный набор данных прямо сейчас и вам удобно хранить только те переменные, которые имеют отношение к классификации данных, которые у вас уже есть, уменьшение размерности с помощью дополнительных деревьев - это хороший выбор для вас. Если вы просто хотите точно представлять данные с меньшим пространством, не слишком заботясь о влиянии на классификацию, лучше выбрать PCA. Снижение размерности с помощью PCA часто также помогает удалить ненужные функции из исходных данных, но это не то, для чего оно оптимизировано.