Можно ли просмотреть код факела предварительно обученной сети - PullRequest
0 голосов
/ 28 апреля 2018

Если вы думаете о такой нубе, читая заголовок, то да.

Я гуглил, но не нашел ни одного гида, который позволил бы мне увидеть, как спроектирована / закодирована предварительно обученная нейронная сеть факела. Я уже скачал предварительно обученную сеть (формат файла .t7), и у меня установлен факел. Может кто-нибудь помочь мне увидеть, как это закодировано (какой размер фильтра используется, параметры используются и т. Д.)?

Может быть, это не на Google, потому что это невозможно? Будем рады ответить на любые дополнительные вопросы, которые у вас есть или если что-то не понятно.

Спасибо.

1 Ответ

0 голосов
/ 29 апреля 2018

Я думаю, что невозможно получить базовый код. Но вы можете получить сводную информацию о модели, которая включает слои и основные параметры, просто используя print.

model = SumModel(vocab_size=vocab_size, hiddem_dim=hidden_dim, batch_size=batch_size)
# saving model
torch.save(model, 'test_model.save')
# print summary of original
print(' - original model summary:')
print(model)
print()

# load saved model
loaded_model = torch.load('test_model.save')
# print summary of loaded model
print(' - loaded model summary:')
print(loaded_model)

Будет выведено резюме, которое выглядит следующим образом.

  - original model summary:
SumModel(
  (word_embedding): Embedding(530734, 128)
  (encoder): LSTM(128, 128, batch_first=True)
  (decoder): LSTM(128, 128, batch_first=True)
  (output_layer): Linear(in_features=128, out_features=530734, bias=True)
)

 - loaded model summary:
SumModel(
  (word_embedding): Embedding(530734, 128)
  (encoder): LSTM(128, 128, batch_first=True)
  (decoder): LSTM(128, 128, batch_first=True)
  (output_layer): Linear(in_features=128, out_features=530734, bias=True)
)

Протестировано с Pytorch 0.4.0

Как вы видите, оба выхода для оригинальной и загруженной модели согласованы.

Надеюсь, это поможет.

...