Кажется, что есть два способа инициализации встраиваемых слоев в Pytorch 1.0 с использованием равномерного распределения.
Например, у вас есть встраиваемый слой:
self.in_embed = nn.Embedding(n_vocab, n_embed)
И вы хотите инициализировать еговеса с равномерным распределением.Первый способ сделать это:
self.in_embed.weight.data.uniform_(-1, 1)
И еще один будет:
nn.init.uniform_(self.in_embed.weight, -1.0, 1.0)
Мой вопрос: в чем разница между первой и второй формой инициализации.Оба метода делают одно и то же?