Keras Conv1D на ЭКГ-сигнал - PullRequest
       57

Keras Conv1D на ЭКГ-сигнал

0 голосов
/ 10 декабря 2018

Я пытаюсь классифицировать разные сигналы ЭКГ.Я использую Keras Conv1D, но не получаю хороших результатов.Я попытался изменить количество слоев, размер окна и т. Д., Но каждый раз, когда я запускаю это, я получаю предсказания одного и того же класса (классы 0,1,2, поэтому я получаю вывод предсказания что-то вроде [1,1,1,1,1,1,1,1,1,1,1,1,1,1], но класс меняется каждый раз, когда я запускаю скрипт).Сигналы ЭКГ представлены в виде 1000 точечных массивов.

Есть ли какие-то явно очевидные вещи, которые я здесь делаю неправильно?Я думал, что было бы здорово использовать несколько слоев, чтобы просто классифицировать по 3 различным сигналам ЭКГ.

#arrange and randomize data
y1=[[0]]*len(lead1)
y2=[[1]]*len(lead2)
y3=[[2]]*len(lead3)
y=np.concatenate((y1,y2,y3))
data=np.concatenate((lead1,lead2,lead3))
data = keras.utils.normalize(data)
data=np.concatenate((data,y),axis=1)
data=np.random.permutation((data))
print(data)

#separate data and create categories
Xtrain=data[0:130,0:-1]
Xtrain=np.reshape(Xtrain,(len(Xtrain),1000,1))
Xpred=data[130:,0:-1]
Xpred=np.reshape(Xpred,(len(Xpred),1000,1))
Ytrain=data[0:130,-1]
Yt=to_categorical(Ytrain)
Ypred=data[130:,-1]
Yp=to_categorical(Ypred)

#create CNN model
model = Sequential()
model.add(Conv1D(20,20,activation='relu',input_shape=(1000,1)))
model.add(MaxPooling1D(3))
model.add(Conv1D(20,10,activation='relu'))
model.add(MaxPooling1D(3))
model.add(Conv1D(20,10,activation='relu'))
model.add(GlobalAveragePooling1D())
model.add(Dense(3,activation='relu',use_bias=False))
model.compile(optimizer='adam', loss='categorical_crossentropy',metrics=['accuracy'])
model.fit(Xtrain,Yt)

#test model
print(model.evaluate(Xpred,Yp))
print(model.predict_classes(Xpred,verbose=1))

1 Ответ

0 голосов
/ 10 декабря 2018

Есть ли какие-то явно очевидные вещи, которые я делаю здесь неправильно?

Действительно, есть: вывод, о котором вы сообщаете, неудивителен, учитывая, что вы в настоящее время используете ReLU в качестве активации дляваш последний слой, который не имеет никакого смысла.

В мультиклассовых настройках, таких как ваш, активация последнего слоя должна быть softmax, и, конечно, не ReLU;измените свой последний слой на:

model.add(Dense(3, activation='softmax'))

Не совсем уверен, почему вы запрашиваете use_bias=False, но вы можете попробовать как с, так и без него и экспериментировать ...

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...