Весовые выборки в мультиклассовой сегментации изображений с использованием керас - PullRequest
4 голосов
/ 16 февраля 2020

Я использую модель на основе Unet для выполнения сегментации изображения на биомедицинском изображении. Каждое изображение имеет размер 224x224, и у меня есть четыре класса, включая класс фона. Каждая маска имеет размер (224x224x4), поэтому мой генератор создает пакеты размером numpy (16x224x224x4). Я изменил значения для маски как 1 или 0, поэтому для каждого класса 1 присутствует в соответствующем канале. Изображение также масштабируется на 1/255. Я использую счет костей в качестве показателя производительности c во время тренировки и 1-кубик как функцию потерь. Кажется, я получаю баллы до 0,89 во время тренировок, но обнаруживаю, что когда я прогнозирую на своем тестовом наборе, я всегда предсказываю фоновый класс. Я тренируюсь только для 10 эпох на нескольких сотнях изображений (хотя у меня есть доступ к гораздо большему количеству изображений), что может повлиять на модель, но я бы подумал, что все равно получу прогнозы для других классов, поэтому я предполагаю, что основные проблема заключается в дисбалансе класса. Посмотрев онлайн, аргумент sample_weight мог бы стать ответом, но я не уверен, как мне реализовать реальную часть веса? предположительно мне нужно применить веса к массиву пикселей в некоторой точке модели, используя слой, но я не уверен как. Любая помощь будет высоко ценится?

class DataGenerator(keras.utils.Sequence):
     def __init__(self, imgIds, maskIds, imagePath, maskPath, batchSize=16, imageSize = (224, 224, 3), nClasses=2, shuffle=False):
       self.imgIds = imgIds
       self.maskIds = maskIds
       self.imagePath = imagePath
       self.maskPath = maskPath
       self.batchSize = batchSize
       self.imageSize = imageSize
       self.nClasses = nClasses
       self.shuffle = shuffle


     def __load__(self, imgName, maskName):

       img = cv2.imread(os.path.join(self.imagePath,imgName))
       img = cv2.resize(img, (self.imageSize[0], self.imageSize[1]))

       mask = cv2.imread(os.path.join(self.maskPath,maskName))
       mask = np.dstack((mask, np.zeros((4000, 4000))))

       mask[:,:,3][mask[:,:,0]==0]=255
       mask = mask.astype(np.bool)
       mask = img_as_bool(resize(mask, (self.imageSize[0], self.imageSize[1])))
       mask = mask.astype('uint8')

       img = img/255.0
       mask = mask

       return (img, mask)


    def __getitem__(self, index):

       if(index+1)*self.batchSize > len(self.imgIds):
          self.batchSize = len(self.imgIds) - index*self.batchSize

       batchImgs = self.imgIds[self.batchSize*index:self.batchSize*(index+1)]
       batchMasks = self.maskIds[self.batchSize*index:self.batchSize*(index+1)]

       batchfiles = [self.__load__(imgFile, maskFile) for imgFile, maskFile in 
       zip(batchImgs, batchMasks)]

       images, masks = zip(*batchfiles)

       return np.array(list(images)), np.array(list(masks))


   def __len__(self):
       return int(np.ceil(len(self.imgIds)/self.batchSize))


class Unet():
   def __init__(self, imgSize):
       self.imgSize = imgSize


   def convBlocks(self, x, filters, kernelSize=(3,3), padding='same', strides=1):

       x = keras.layers.BatchNormalization()(x)
       x = keras.layers.Activation('relu')(x)
       x = keras.layers.Conv2D(filters, kernelSize, padding=padding, strides=strides)(x)

       return x


   def identity(self, x, xInput, f, padding='same', strides=1):

      skip = keras.layers.Conv2D(f, kernel_size=(1, 1), padding=padding, strides=strides)(xInput)
      skip = keras.layers.BatchNormalization()(skip)
      output = keras.layers.Add()([skip, x])

      return output


    def residualBlock(self, xIn, f, stride):

      res = self.convBlocks(xIn, f, strides=stride)
      res = self.convBlocks(res, f, strides=1)
      output = self.identity(res, xIn, f, strides=stride)

      return output


    def upSampling(self, x, xInput):

      x = keras.layers.UpSampling2D((2,2))(x)
      x = keras.layers.Concatenate()([x, xInput])

      return x


    def encoder(self, x, filters, kernelSize=(3,3), padding='same', strides=1):

      e1 = keras.layers.Conv2D(filters[0], kernelSize, padding=padding, strides=strides)(x)
      e1 = self.convBlocks(e1, filters[0])

      shortcut = keras.layers.Conv2D(filters[0], kernel_size=(1, 1), padding=padding, strides=strides)(x)
      shortcut = keras.layers.BatchNormalization()(shortcut)
      e1Output = keras.layers.Add()([e1, shortcut])

      e2 = self.residualBlock(e1Output, filters[1], stride=2)
      e3 = self.residualBlock(e2, filters[2], stride=2)
      e4 = self.residualBlock(e3, filters[3], stride=2)
      e5 = self.residualBlock(e4, filters[4], stride=2)

      return e1Output, e2, e3, e4, e5


  def bridge(self, x, filters):

      b1 = self.convBlocks(x, filters, strides=1)
      b2 = self.convBlocks(b1, filters, strides=1)

      return b2


  def decoder(self, b2, e1, e2, e3, e4, filters, kernelSize=(3,3), padding='same', strides=1):

      x = self.upSampling(b2, e4)
      d1 = self.convBlocks(x, filters[4])
      d1 = self.convBlocks(d1, filters[4])
      d1 = self.identity(d1, x, filters[4])

      x = self.upSampling(d1, e3)
      d2 = self.convBlocks(x, filters[3])
      d2 = self.convBlocks(d2, filters[3])
      d2 = self.identity(d2, x, filters[3])

      x = self.upSampling(d2, e2)
      d3 = self.convBlocks(x, filters[2])
      d3 = self.convBlocks(d3, filters[2])
      d3 = self.identity(d3, x, filters[2])

      x = self.upSampling(d3, e1)
      d4 = self.convBlocks(x, filters[1])
      d4 = self.convBlocks(d4, filters[1])
      d4 = self.identity(d4, x, filters[1])

      return d4 


  def ResUnet(self, filters = [16, 32, 64, 128, 256]):

      inputs = keras.layers.Input((224, 224, 3))

      e1, e2, e3, e4, e5 = self.encoder(inputs, filters)
      b2 = self.bridge(e5, filters[4])
      d4 = self.decoder(b2, e1, e2, e3, e4, filters)

      x = keras.layers.Conv2D(4, (1, 1), padding='same', activation='softmax')(d4)
      model = keras.models.Model(inputs, x)

      return model


imagePath = 'output/t2'
maskPath = 'output/t1'

imgIds = glob.glob(os.path.join(imagePath, '*'))
maskIds = glob.glob(os.path.join(maskPath, '*'))

imgIds = [os.path.basename(f) for f in imgIds]
maskIds = [os.path.basename(f) for f in maskIds]

trainImgIds = imgIds[:300]
trainMaskIds = maskIds[:300]
validImgIds = imgIds[300:350]
validMaskIds = maskIds[300:350]

trainGenerator = DataGenerator(trainImgIds, trainMaskIds, imagePath, maskPath, **params)
validGenerator = DataGenerator(validImgIds, validMaskIds, imagePath, maskPath)

trainSteps = len(trainImgIds)//trainGenerator.batchSize
validSteps = len(validImgIds)//validGenerator.batchSize

unet = Unet(224)
model = unet.ResUnet()
model.summary()

adam = keras.optimizers.Adam()
model.compile(optimizer=adam, loss=dice_coef_loss, metrics=[dice_coef])

hist = model.fit_generator(trainGenerator, validation_data=validGenerator, 
steps_per_epoch=trainSteps, validation_steps=validSteps, 
                verbose=1, epochs=6)

Ответы [ 2 ]

1 голос
/ 24 февраля 2020

Чтобы продолжить, я заставил его работать с помощью sample_weight. Это очень хорошо, если вы знаете, что вы должны делать. К сожалению, документация по этому вопросу не совсем ясна, предположительно потому, что эта функция была первоначально добавлена ​​для данных временных рядов.

  • Вам необходимо изменить форму вывода в формате 2D в виде вектора перед функцией потерь, когда Вы указываете свою модель.
  • Используйте sample_weight_mode = "temporal" при компиляции модели. Это позволит вам перейти в матрицу весов для тренировок, где каждая строка представляет вектор весов для одного образца.

Надеюсь, это поможет.

0 голосов
/ 26 февраля 2020

Я использую Keras
Это НЕ выборочные веса в частности.
Сначала вам лучше преобразовать изображения в оттенки серого И
Вам необходимо изменить архитектуру вашей проблемы, например:
Построить две модели:

1. Модель сегментации - независимо от класса type - обнаруживает и сегментирует пиксели изображения или области интереса (ROI), вы можете извлечь их как патчи.
Допустим, ваша ROI - это пиксели со значением 1 (положительные), а затем, скорее всего, фон со значением 0 ( Негативные) являются доминирующим классом пикселей, следовательно, это несбалансированные данные, поэтому вам нужно использовать функцию потерь, которая штрафует ложных негативов больше, чем ложных, что-то вроде balance_cross_entropy:

def balanced_cross_entropy(beta):
  def convert_to_logits(y_pred):
      y_pred = tf.clip_by_value(y_pred, tf.keras.backend.epsilon(), 1 - tf.keras.backend.epsilon())

      return tf.log(y_pred / (1 - y_pred))

  def loss(y_true, y_pred):
    y_pred = convert_to_logits(y_pred)
    pos_weight = beta / (1 - beta)
    loss = tf.nn.weighted_cross_entropy_with_logits(logits=y_pred, targets=y_true, pos_weight=pos_weight)

    # or reduce_sum and/or axis=-1
    return tf.reduce_mean(loss * (1 - beta))

  return loss

Затем в вашей модели используйте 20% веса для отрицательных пикселей и 80% для положительных, или отрегулируйте его по своему усмотрению.

model.compile(optimizer=Adam(), loss=balanced_cross_entropy(0.2), metrics=["accuracy"])

Модель классификатора, которая обрабатывает обнаруженную область интереса или исправления, извлеченные с помощью модели автоэнкодера, и определяет тип класса среди (теперь) 3 классов после обучения на помеченных исправлениях.

Для первой части вы можете дополнительно добавить модуль порога.

выборочные веса будут полезны в модели классификатора, если некоторые из ваших данных классов представлены недостаточно, давайте скажем, ваш класс 3 (индекс 2) редок, тогда вы назначаете больший вес изображениям класса 4 или можете использовать class_weight:

class_weights = {0: 0.1, 1: 0.1, 2: 0.8}
model.fit_generator(train_gen, class_weight=class_weights)

Вы также можете использовать методы увеличения данных

Чтобы загрузить сохраненную модель с настраиваемой функцией потерь, используйте пользовательские объекты:

 model = load_model(filePath, 
          custom_objects={'loss': balanced_cross_entropy(0.2)})
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...