Нам нужно выбрать размер партии для GD, а также нормализацию, они оба называли размер партии, но в реальной реализации они должны быть одинаковыми? Или иначе как рамки справляются с ними?
Например, в Pytorch один размер пакета определен в загрузчике данных, например,
torch.utils.data.DataLoader(image_datasets[x],
batch_size=16,
shuffle=True,
num_workers=4)
и, если используется BN
self.bn1 = nn.BatchNorm2d(16)
Должен ли он быть одинаковым ( 16) или это может быть по другому? Если отличается, есть ли предпочтительные отношения между двумя «размер партии» Спасибо