Я обучаю автокодер для задачи классификации мультикласса, где я передаю 16 равнозначных сообщений и отправляю их через автошифратор с шумоподавлением для их получения. Я пытаюсь реализовать результат (модификацию рисунка 3b) в этой статье, чтобы указать c: см. Рисунок 2 в https://arxiv.org/pdf/1702.00832.pdf для модели.
Вот мой класс автоэнкодера:
class FullyConnectedAutoencoder(nn.Module):
def __init__(self, k, n_channel, EbN0_dB):
self.k = k
self.n_channel = n_channel
self.EbN0_dB = EbN0_dB
super(FullyConnectedAutoencoder, self).__init__()
self.transmitter = nn.Sequential(
nn.Linear(in_features=2 ** k, out_features=2 ** k, bias=True),
nn.ReLU(inplace=True),
nn.Linear(in_features=2 ** k, out_features=n_channel, bias=True) )
self.receiver = nn.Sequential(
nn.Linear(in_features=n_channel, out_features=2 ** k, bias=True),
nn.ReLU(inplace=True),
nn.Linear(in_features=2 ** k, out_features=2 ** k, bias=True),)
def forward(self, x):
x = self.transmitter(x)
# Normalization
n = (x.norm(dim=-1)[:,None].view(-1,1).expand_as(x))
x = sqrt(7)*(x / n)
training_SNR = 10 ** (self.EbN0_dB / 10) # Train at 3 dB
R = k / n_channel
noise = torch.randn(x.size()) / ((2*R*training_SNR) ** 0.5)
x += noise
x = self.receiver(x)
return x
и моя тренировка l oop выглядит следующим образом:
# TRAINING
for epoch in range(epochs):
for step, (x, y) in enumerate(trainloader): # gives batch data, normalize x when iterate train_loader
# Forward pass
output = net(x) # output
y = (y.long()).view(-1)
loss = loss_func(output, y) # cross entropy loss
# Backward and optimize
optimizer.zero_grad() # clear gradients for this training step
loss.backward() # backpropagation, compute gradients
optimizer.step() # apply gradients
if step % 100 == 0:
train_output = net(train_data)
pred_labels = torch.max(train_output, 1)[1].data.squeeze()
accuracy = sum(pred_labels == train_labels) / float(train_labels.size(0))
print('Epoch: ', epoch, '| train loss: %.4f' % loss.item(), '| train accuracy: %.4f' % accuracy)
Тренировка l oop работает хорошо. Тем не менее, я хочу проверить свой подход на разных крысах сигнал-шум ios. У меня есть некоторые проблемы с этим. Вот два подхода, которые я пробую
Подход 1: Объявлять новый объект каждый раз, когда я тестирую автоэнкодер
for p in range(len(EbNo_test)):
with torch.no_grad():
for test_data, test_labels in testloader:
net = FullyConnectedAutoencoder(k, n_channel, EbNo_test[p])
decoded_signal = net(test_data)
# encoded_signal = net.transmitter(test_data)
# noisy_signal = encoded_signal + test_noise
# decoded_signal = net.receiver(noisy_signal)
pred_labels = torch.max(decoded_signal, 1)[1].data.squeeze()
test_BLER[p] = sum(pred_labels != test_labels) / float(test_labels.size(0))
print('Eb/N0:',EbNo_test[p].numpy(), '| test BLER: %.4f' % test_BLER[p])
Подход 2: Это более интуитивно понятно. Используйте передатчик и приемник отдельно и добавьте шум после того, как я передам сигнал.
for p in range(len(EbNo_test)):
EcNo_test_sqrt[p] = 1/(2*R*(10**(EbNo_test[p]/20)))
test_noise = EcNo_test_sqrt[p] * torch.randn(batch_size, n_channel)
with torch.no_grad():
for test_data, test_labels in testloader:
encoded_signal = net.transmitter(test_data)
noisy_signal = encoded_signal + test_noise
decoded_signal = net.receiver(noisy_signal)
pred_labels = torch.max(decoded_signal, 1)[1].data.squeeze()
test_BLER[p] = sum(pred_labels != test_labels) / float(test_labels.size(0))
print('Eb/N0:',EbNo_test[p].numpy(), '| test BLER: %.4f' % test_BLER[p])
Странно, я получаю неправильные ответы - это означает, что ошибки составляют 90% там, где они должны следовать такой же тенденции. (Рис. 3b в приведенной выше статье)
Я что-то не так делаю? Любая помощь очень ценится.