Я немного запутался после прочтения «Мешка уловок» для эффективной классификации текста. В чем разница между args wordNgrams
, minn
и maxn
Например, задача классификации текста и встраивание перчаток как pretrainedVectors
ft.train_supervised(file_path,lr=0.1,epoch=5,wordNgrams=2,dim=300,loss='softmax', minn=2,maxn=3,pretrainedVectors='glove.300d.txt',verbose=0)
входное предложение - 'I люблю вас'. Если minn = 2, maxn = 3, все предложение преобразуется в [<I, I>], [<l, <lo, lo, lov,.....]
и т. Д. Для слова любовь его вложение в быстрый текст = (emb (любовь) (как полное слово) + emb (