У меня проблема с вычислением точности модели, рассчитанной для значения угла плавления 0,5 для каждого шага тренировки. У него есть один выходной нейрон, который должен быть полезен для созревания томатов или нет.
Я пытался удалить и добавить выпадающий слой и функции потерь с помощью BCEWithLogitsloss () в конце, но без улучшения.
Часть кода вставлена
model_conv = torchvision.models.vgg16(pretrained=True)
for param in model_conv.parameters():
param.requires_grad = False
# Parameters of newly constructed modules have requires_grad=True by default
num_ftrs = model_conv.classifier[6].out_features
model_conv.classifier = nn.Sequential(model_conv.classifier, nn.ReLU(inplace=True),
nn.Linear(num_ftrs,1),nn.Sigmoid())
print(model_conv)
model_conv = model_conv.to(device)
criterion = nn.MSELoss()
# Observe that only parameters of final layer are being optimized as
# opposed to before.
optimizer_conv = optim.SGD(model_conv.classifier[2].parameters(), lr=0.001, momentum=0.9)
# Decay LR by a factor of 0.1 every 7 epochs
exp_lr_scheduler = lr_scheduler.StepLR(optimizer_conv, step_size=7, gamma=0.1)
######################################################################
# Train and evaluate
# ^^^^^^^^^^^^^^^^^^
#
# On CPU this will take about half the time compared to previous scenario.
# This is expected as gradients don't need to be computed for most of the
# network. However, forward does need to be computed.
#
model_conv = train_model(model_conv, criterion, optimizer_conv,
exp_lr_scheduler, num_epochs=25)
Я ожидал, что точность должна меняться на каждом шаге, но она не меняется.