Алгоритмам классификации, таким как SVM и XGBoost, требуется огромное количество времени для обучения, и некоторое время он продолжает работать с определенным набором данных, в то время как другие алгоритмы классификации делают это менее чем за 10 секунд для того же набора данных.
Общий размер набора данных = 141 000 точек данных, набор поездов = 75% от общего набора данных, а набор тестов = 25% от общего набора данных.
Существует ли какой-либо метод, позволяющий найти время, затраченное моделью на быть обученным?
Данные содержат 41 атрибут, среди которых 3 атрибута являются номинальными и закодированы с использованием фиктивного кодирования. После кодирования всего имеется 110 атрибутов.
Примечание. Набор данных классифицирован, поэтому я не могу поделиться им здесь.