Я реализовал модель ML, используя наивный алгоритм Байеса, где я хочу реализовать инкрементальное обучение.Проблема, с которой я сталкиваюсь, заключается в том, что, когда я тренирую свою модель, и она генерирует 1500 функций во время предварительной обработки, а затем через месяц, используя механизм обратной связи, если я хочу обучить свою модель новыми данными, которые могут содержать некоторые новые функции, может быть меньше или большечем 1500 (т.е. из моего предыдущего набора данных), если я использую fit_transform
для получения новых функций, тогда мой существующий набор функций теряется.
Я использовал частичную подгонку, но проблема с частичной подгонкой заключается в том, что вам требуется то же количество функций, что и в предыдущей модели.Как мне заставить его учиться постепенно?
cv = CountVectorizer()
X = cv.fit_transform(corpus).toarray() #replaces my older feature set
classifier = GaussianNB()
classifier.partial_fit(X,y)
#does not fit because the size of feature set count is not equal to previous feature set count