яркие пятна на выходе обученной сети - PullRequest
0 голосов
/ 02 августа 2020

Я обучил сеть, которая вводит одномерные значения и выводит изображение размером 64 × 64 (см. Код ниже). На выходе сети после обучения появляются яркие пятна (значение 1). На прилагаемом изображении показаны выходные данные, которые я предоставляю во время обучения, и выходные данные сети после обучения. что может быть причиной этой проблемы, когда яркие пятна находятся в одном месте для всех обработанных изображений?

x = Dense(250, activation='relu')(x)
x = Dense(500, activation='relu')(x)
x = Dense(1000, activation='relu')(x)
x = Dense(4096, activation='relu')(x)
x = Reshape((64,64,1),input_shape=(4096,))(x)

x=Conv2D(16,(3,3),padding='same',kernel_regularizer=regularizers.l2(0.001),kernel_initializer='glorot_uniform')(x)
x=BatchNormalization(axis=3)(x)
x=Activation('relu')(x) 

x=Conv2D(32,(3,3),padding='same', kernel_regularizer=regularizers.l2(0.001),kernel_initializer='glorot_uniform')(x)
x=BatchNormalization(axis=3)(x)
x=Activation('relu')(x) 

x=Conv2D(64,(3,3),padding='same', kernel_regularizer=regularizers.l2(0.001),kernel_initializer='glorot_uniform')(x)
x=BatchNormalization(axis=3)(x)
x=Activation('relu')(x) 

x=Conv2D(32,(3,3),padding='same', kernel_regularizer=regularizers.l2(0.001),kernel_initializer='glorot_uniform')(x)
x=BatchNormalization(axis=3)(x)
x=Activation('relu')(x) 

x=Conv2D(16,(3,3),padding='same', kernel_regularizer=regularizers.l2(0.001),kernel_initializer='glorot_uniform')(x)
x=BatchNormalization(axis=3)(x)
x=Activation('relu')(x) 

x=Conv2D(1,(3,3),padding='same', kernel_regularizer=regularizers.l2(0.001),kernel_initializer='glorot_uniform')(x)
x=Activation('sigmoid')(x) 

[1]: https://i.stack.imgur.com/OyMOB.jpg! [проблема Иллюстрация] (https://i.stack.imgur.com/X8rrb.jpg) введите описание изображения здесь

...