У меня большая куча необработанных текстовых документов.
Я не уверен, стоит ли использовать keras.text_preprocessing.Tokenizer или sklearn.feature_extraction.text.CountVectorizer . Есть идеи, предложения? Что быстрее? Есть ли у них какая-то серьезная разница, которую я могу пропустить?
Спасибо