Как интерпретировать показатели оценки модели классификации, индекса Жакара, точности и т. Д. c? - PullRequest
0 голосов
/ 12 февраля 2020

Я новичок в области глубокого обучения. Я обучил модель классификации изображений и получил: enter image description here

Я не уверен, хороши эти результаты или нет. особенно для JA (orIOU) !! это логика c, чтобы получить 99%. для этого метри c? JA: индекс Jaccad или пересечение по объединению, DI: Dice-coef, PR: точность, RE: повторный вызов, A C: точность

используемые мной функции:

from keras import backend as K
def iou(y_true, y_pred, smooth = 100):
    intersection = K.sum(K.abs(y_true * y_pred), axis=-1)
    sum_ = K.sum(K.square(y_true), axis = -1) + K.sum(K.square(y_pred), axis=-1)
    jac = (intersection + smooth) / (sum_ - intersection + smooth)
    return jac
def dice_coef(y_true, y_pred, smooth = 100):
    y_true_f = K.flatten(y_true)
    y_pred_f = K.flatten(y_pred)
    intersection = K.sum(y_true_f * y_pred_f)
    return (2. * intersection + smooth) / (K.sum(y_true_f) + K.sum(y_pred_f) + smooth)
def precision(y_true, y_pred):

    true_positives = K.sum(K.round(K.clip(y_true * y_pred, 0, 1)))
    predicted_positives = K.sum(K.round(K.clip(y_pred, 0, 1)))
    precision = true_positives / (predicted_positives + K.epsilon())
    return precision
def recall(y_true, y_pred):

    true_positives = K.sum(K.round(K.clip(y_true * y_pred, 0, 1)))
    possible_positives = K.sum(K.round(K.clip(y_true, 0, 1)))
    recall = true_positives / (possible_positives + K.epsilon())
    return recall
def accuracy(y_true, y_pred):
    return K.mean(K.equal(y_true, K.round(y_pred)))
...