Проблемы при загрузке обученной модели быстрого текста с использованием gensim - PullRequest
1 голос
/ 14 марта 2020

Я пытаюсь загрузить обученную модель быстрого текста, используя gensim. Модель была обучена на некоторых данных. Ранее я использовал model.save() с расширением .bin, чтобы использовать его позже. После процесса обучения и сохранения модели в формате model.save в формате .bin создается 3 файла соответственно. Это:

1) .bin

2) bin.trainable vectors_ngrams_lockf

3) bin.wv.vectors_ngrams

Теперь я не могу загрузить обученный двоичный файл (.bin).

Но я не понимаю, почему я получаю сообщение об ошибке:

повышение NotImplementedError («Управляемые модели fastText не поддерживаются») NotImplementedError: Управляемые модели fastText не поддерживаются

После просмотра многих блогов люди предположили, что gensim не поддерживает обучение под наблюдением. Все в порядке. Мой вопрос заключается в том, как я могу загрузить обученную бинарную модель. Должен ли я обучать модель по-другому.

Любая помощь приветствуется.

То, что я попробовал после процесса обучения:

import logging
logging.basicConfig(format='%(asctime)s : %(levelname)s : %(message)s', level=logging.INFO)
from gensim.models import FastText, fasttext
model = FastText.load_fasttext_format('m1.bin')
print(model)

1 Ответ

1 голос
/ 14 марта 2020

Если модель была сохранена с использованием собственного метода gensim *1001*, вы бы загрузили ее с .load() - , а не load_fasttext_format(), что только для моделей, сохраненных в необработанном виде. формат, используемый исходным кодом Facebook FastText C ++.

...