Я следую этому руководству: http://nlp.seas.harvard.edu/2018/04/03/attention.html для реализации модели Transformer из статьи «Внимание - это все, что вам нужно».
Однако я получаю следующую ошибку: RuntimeError: «exp» не реализовано для «torch.LongTensor»
Это строка в классе PositionalEnconding, которая вызывает ошибку:
div_term = torch.exp(torch.arange(0, d_model, 2) * -(math.log(10000.0) / d_model))
Когда здесь строится:
pe = PositionalEncoding(20, 0)
Есть идеи ??Я уже пытался преобразовать это, возможно, в тип Tensor Float, но это не сработало.
Я даже загрузил весь блокнот с сопровождающими файлами, и ошибка, похоже, сохраняется в исходном руководстве.
Есть идеи, что может быть причиной этой ошибки?
Спасибо!