Я читаю довольно много, и меня немного смущают k-фолды. Я понимаю концепцию, лежащую в основе этого, но я не уверен, как его развернуть.
Обычный шаг, который я видел после исследования данных, это train_test_split
, кодирование и масштабирование fit_transform
обучающие наборы и просто подгонка наборов для тестирования перед тестированием, какие алгоритмы работают. После чего они настраивают гиперпараметры.
Так что, если бы я использовал сейчас k-фолды, мне избежать использования train_test_split? И при чем мы используем k-сгибы?
Спасибо!