У меня есть набор веб-страниц, и я находился в процессе получения матрицы подсчета веб-страниц. Я пытался использовать стандартный Countvectorizer от sklearn, но не получил требуемых результатов. Пример кода приведен ниже:
from sklearn.feature_extraction.text import CountVectorizer
corpus = ['www.google.com www.google.com', 'www.google.com www.facebook.com', 'www.google.com', 'www.facebook.com']
vocab = {'www.google.com':0, 'www.facebook.com':1}
vectorizer = CountVectorizer(vocabulary=vocab)
X = vectorizer.fit_transform(corpus)
print(vectorizer.get_feature_names())
print(X.toarray())
Даёт
['www.google.com', 'www.facebook.com']
[[0 0]
[0 0]
[0 0]
[0 0]]
Но требуемый результат
['www.google.com', 'www.facebook.com']
[[2 0]
[1 1]
[1 0]
[0 1]]
Как мы можем применить countvectorizer к такой пользовательской лексике?