Точность CNN в двоичной классификации изображений кошек / собак не лучше случайной - PullRequest
0 голосов
/ 10 июля 2019

Я адаптировал простую CNN из учебника по Analytics Vidhya .

Проблема в том, что моя точность в наборе несдержанных не лучше случайной.Я тренируюсь на ~ 8600 изображений каждой из кошек и собак, которых должно быть достаточно для приличной модели, но точность на тестовом наборе составляет 49%.Есть ли в моем коде явное упущение где-то?

import os
import numpy as np
import keras
from keras.models import Sequential
from sklearn.model_selection import train_test_split
from datetime import datetime
from PIL import Image
from keras.utils.np_utils import to_categorical
from sklearn.utils import shuffle


def main():

    cat=os.listdir("train/cats")
    dog=os.listdir("train/dogs")
    filepath="train/cats/"
    filepath2="train/dogs/"

    print("[INFO] Loading images of cats and dogs each...", datetime.now().time())
    #print("[INFO] Loading {} images of cats and dogs each...".format(num_images), datetime.now().time())
    images=[]
    label = []
    for i in cat:
        image = Image.open(filepath+i)
        image_resized = image.resize((300,300))
        images.append(image_resized)
        label.append(0) #for cat images

    for i in dog:
        image = Image.open(filepath2+i)
        image_resized = image.resize((300,300))
        images.append(image_resized)
        label.append(1) #for dog images

    images_full = np.array([np.array(x) for x in images])

    label = np.array(label)
    label = to_categorical(label)

    images_full, label = shuffle(images_full, label)

    print("[INFO] Splitting into train and test", datetime.now().time())
    (trainX, testX, trainY, testY) = train_test_split(images_full, label, test_size=0.25)


    filters = 10
    filtersize = (5, 5)

    epochs = 5
    batchsize = 32

    input_shape=(300,300,3)
    #input_shape = (30, 30, 3)

    print("[INFO] Designing model architecture...", datetime.now().time())
    model = Sequential()
    model.add(keras.layers.InputLayer(input_shape=input_shape))
    model.add(keras.layers.convolutional.Conv2D(filters, filtersize, strides=(1, 1), padding='same',
                                                data_format="channels_last", activation='relu'))
    model.add(keras.layers.MaxPooling2D(pool_size=(2, 2)))
    model.add(keras.layers.Flatten())

    model.add(keras.layers.Dense(units=2, input_dim=50,activation='softmax'))
    #model.add(keras.layers.Dense(units=2, input_dim=5, activation='softmax'))

    model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])

    print("[INFO] Fitting model...", datetime.now().time())
    model.fit(trainX, trainY, epochs=epochs, batch_size=batchsize, validation_split=0.3)

    model.summary()

    print("[INFO] Evaluating on test set...", datetime.now().time())
    eval_res = model.evaluate(testX, testY)
    print(eval_res)

if __name__== "__main__":
    main()

1 Ответ

2 голосов
/ 10 июля 2019

Для меня проблема связана с размером вашей сети, у вас есть только один Conv2D с размером фильтра 10. Это слишком мало, чтобы изучить глубокое воспроизведение вашего изображения.

Попробуйте увеличитьэто много благодаря использованию блоков с общей архитектурой, таких как VGGnet!
Пример блока:

x = Conv2D(32, (3, 3) , padding='SAME')(model_input)
x = LeakyReLU(alpha=0.3)(x)
x = BatchNormalization()(x)
x = Conv2D(32, (3, 3) , padding='SAME')(x)
x = LeakyReLU(alpha=0.3)(x)
x = BatchNormalization()(x)
x = MaxPooling2D(pool_size=(2, 2))(x)
x = Dropout(0.25)(x)

Вам нужно попробовать несколько таких блоков и увеличить размер фильтра, чтобы охватить более глубокие функции.

Другое дело, вам не нужно указывать input_dim вашего плотного слоя, keras автоматически позаботится об этом!

И последнее, но не менее важное: вам необходимо полностью подключить сеть, чтобыправильно классифицировать ваши изображения, а не только один слой.

Например:

x = Flatten()(x)
x = Dense(256)(x)
x = LeakyReLU(alpha=0.3)(x)
x = Dense(128)(x)
x = LeakyReLU(alpha=0.3)(x)
x = Dense(2)(x)
x = Activation('softmax')(x)

Попробуйте эти изменения и держите меня в курсе!

Обновите после вопросов оп

Изображения сложны, они содержат многоинформация, такая как формы, края, цвета и т. д.

Для того, чтобы получить максимум информации, вам необходимо пройти через множество сверток, которые изучат различные аспекты изображения.Представьте, что, как, например, первая свертка научится распознавать квадрат, вторая - распознавать круги, третья - распознавать ребра и т. Д.сеть conv будет выводить вектор, который «представляет» собаку или кошку, теперь вам нужно узнать, что этот тип вектора относится к одному или другому классу.
И прямая подача этого вектора в последний слой не являетсядостаточно, чтобы выучить это представление.

Это более понятно?

Последнее обновление для второго комментария op

Здесь два способа определения модели Keras, оба выводят одно и то же!

model_input = Input(shape=(200, 1))
x = Dense(32)(model_input)
x = Dense(16)(x)
x = Activation('relu')(x)
model = Model(inputs=model_input, outputs=x)




model = Sequential()
model.add(Dense(32, input_shape=(200, 1)))
model.add(Dense(16, activation = 'relu'))

Пример архитектуры

model = Sequential()
model.add(keras.layers.InputLayer(input_shape=input_shape))
model.add(keras.layers.convolutional.Conv2D(32, (3,3), strides=(2, 2), padding='same', activation='relu'))
model.add(keras.layers.convolutional.Conv2D(32, (3,3), strides=(2, 2), padding='same', activation='relu'))
model.add(keras.layers.MaxPooling2D(pool_size=(2, 2)))

model.add(keras.layers.convolutional.Conv2D(64, (3,3), strides=(2, 2), padding='same', activation='relu'))
model.add(keras.layers.convolutional.Conv2D(64, (3,3), strides=(2, 2), padding='same', activation='relu'))
model.add(keras.layers.MaxPooling2D(pool_size=(2, 2)))

model.add(keras.layers.Flatten())

model.add(keras.layers.Dense(128, activation='relu'))
model.add(keras.layers.Dense(2, activation='softmax'))

model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])

Не забудьте нормализовать свои данные перед подачей в сеть.

Простые images_full = images_full / 255.0 ваших данных могут значительно повысить вашу точность.
Попробуйте и с изображениями в оттенках серого, это более эффективно для вычислений.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...