Я столкнулся со странной проблемой, пытаясь обучить нейронную сеть с использованием кода из github, это модель разговорного лица.
Что происходит: даже если я использую свой собственный набор данных для обучения, результат остается таким же, как и в исходном наборе данных. Моя гипотеза, что это какая-то проблема с кешированием - старый набор данных постоянно загружается из кэшированного и заменяет мой. Когда я запускаю настоящий интерактивный сеанс с нейронной сетью, он работает, но без моих данных, даже если я прохожу контрольную точку модели.
Почему я думаю о кеше: в этом репо автор использует автоматическую загрузку и кэширование модели нейронной сети в/home/joo/.cache/torch/pytorch_transformers/ если в терминале не указан ни один параметр.
Я создал проблему на Github. НО я не уверен, что проблема специфична только для этого репо, или это обычная проблема с переподготовкой нейронных сетей, с которой я столкнулся в первый раз.
https://github.com/huggingface/transfer-learning-conv-ai/issues/36
Некоторая копияиз номера:
Мне все еще интересно, я не смог передать мой набор данных:
I added to original 200mb json my personality
trained once more with --dataset_path ./my.json
invoke interact.py with new checkpoint and path python ./interact.py --model_checkpoint
. / run / Oct08_18-22-53_joo-tf_openai-gpt / -dataset_path ./my.json и он сообщает, что собрали 18878 личностей (но не 18879, с моей). Я изменил код в interactive.py, чтобы выбрать свою первую личность таким образом:
было: индивидуальность = случайный выбор (персоналии)
стать: личность = личности [0]
и эта первая личность не моя.