Я работаю со средой, которая генерирует данные на каждой итерации.Я хочу сохранить модель из предыдущей итерации и добавить новые данные в существующую модель.
Я хочу понять, как работает подгонка модели.Будет ли он соответствовать новым данным с существующей моделью или создаст новую модель с новыми данными.
согласование вызовов с новыми данными:
clf = RandomForestClassifier(n_estimators=100)
for i in customRange:
get_data()
clf.fit(new_train_data) #directly fitting new train data
clf.predict(new_test_data)
Или единственное решение - сохранение истории данных поездов и подбор вызовов по всем историческим данным
clf = RandomForestClassifier(n_estimators=100)
global_train_data = new dict()
for i in customRange:
get_data()
global_train_data.append(new_train_data) #Appending new train data
clf.fit(global_train_data) #Fitting on global train data
clf.predict(new_test_data)
Моя цель состоит в том, чтобы эффективно обучать модели, поэтому я не хочу тратить время на повторное обучение моделей процессорного времени.
Я хочу подтвердить правильный подход, а также узнать, является ли этот подход согласованным во всех всехклассификаторы