Как удалить все слои активации RELU из модели Re snet в pytorch и, если возможно, заменить ее слоем линейной активации?
model = models.resnet50() names = [] for name, module in model.named_modules(): if hasattr(module, 'relu'): module.relu = nn.Sigmoid() // or nn.Identity() accordingly print(model)
Это работает либо для замены активаций, либо для их идентификации