как текстовую классификацию, используя LSTM - PullRequest
0 голосов
/ 15 апреля 2019

Я занимаюсь классификацией текста с использованием модели LSTM, я получил достоверность 98% данных проверки, но когда я отправляю. Получает 0 баллов, пожалуйста, помогите мне, как это сделать, я новичок в НЛП.У меня есть такие данные

train.head()
    id  category    text
0   959 0   5573 1189 4017 1207 4768 8542 17 1189 5085 5773
1   994 0   6315 7507 6700 4742 1944 2692 3647 4413 6700
2   995 0   5015 8067 5335 1615 7957 5773
3   996 0   2925 7199 1994 4647 7455 5773 4518 2734 2807 8...
4   997 0   7136 1207 6781 237 4971 3669 6193

Я применяю токенизатор здесь:

from keras.preprocessing.text import Tokenizer
max_features = 1000
tokenizer = Tokenizer(num_words=max_features)
tokenizer.fit_on_texts(list(X_train))
X_train = tokenizer.texts_to_sequences(X_train)
X_test = tokenizer.texts_to_sequences(X_test)

Я применяю здесь заполнение последовательности:

from keras.preprocessing import sequence
max_words = 30
X_train = sequence.pad_sequences(X_train, maxlen=max_words)
X_test = sequence.pad_sequences(X_test, maxlen=max_words)
print(X_train.shape,X_test.shape)

Вот моя модель:

batch_size = 64
epochs = 5

max_features = 1000
embed_dim = 100
num_classes = train['category'].nunique()
  model = Sequential()
    model.add(Embedding(max_features, embed_dim, input_length=X_train.shape[1]))
    model.add(Conv1D(filters=32, kernel_size=3, padding='same', activation='relu'))
    model.add(MaxPooling1D(pool_size=2))
    model.add(Conv1D(filters=32, kernel_size=3, padding='same', activation='relu'))
    model.add(MaxPooling1D(pool_size=2))    
    model.add(LSTM(100, dropout=0.2))
    model.add(Dense(num_classes, activation='sigmoid'))
    model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])
print(model.summary())
Layer (type)                 Output Shape              Param #   
=================================================================
embedding_2 (Embedding)      (None, 30, 100)           100000    
_________________________________________________________________
conv1d_3 (Conv1D)            (None, 30, 32)            9632      
_________________________________________________________________
max_pooling1d_3 (MaxPooling1 (None, 15, 32)            0         
_________________________________________________________________
conv1d_4 (Conv1D)            (None, 15, 32)            3104      
_________________________________________________________________
max_pooling1d_4 (MaxPooling1 (None, 7, 32)             0         
_________________________________________________________________
lstm_2 (LSTM)                (None, 100)               53200     
_________________________________________________________________
dense_2 (Dense)              (None, 2)                 202       
=================================================================
Total params: 166,138
Trainable params: 166,138
Non-trainable params: 0
_________________________________________________________________
None

Вот мои эпохи:

model_history = model.fit(X_train, y_train, validation_data=(X_test, y_test), epochs=epochs, batch_size=batch_size, verbose=1)

Train on 2771 samples, validate on 693 samples
Epoch 1/5
2771/2771 [==============================] - 2s 619us/step - loss: 0.2816 - acc: 0.9590 - val_loss: 0.1340 - val_acc: 0.9668
Epoch 2/5
2771/2771 [==============================] - 1s 238us/step - loss: 0.1194 - acc: 0.9664 - val_loss: 0.0809 - val_acc: 0.9668
Epoch 3/5
2771/2771 [==============================] - 1s 244us/step - loss: 0.0434 - acc: 0.9843 - val_loss: 0.0258 - val_acc: 0.9899
Epoch 4/5
2771/2771 [==============================] - 1s 236us/step - loss: 0.0150 - acc: 0.9958 - val_loss: 0.0423 - val_acc: 0.9899
Epoch 5/5
2771/2771 [==============================] - 1s 250us/step - loss: 0.0064 - acc: 0.9984 - val_loss: 0.0532 - val_acc: 0.9899

после того, как я применю функцию прогнозирования для проверки данных: мой файл представления выглядит так:

   submission.head()





  id    category
0   3729    0.999434
1   3732    0.999128
2   3761    0.999358
3   5       0.996779
4   7       0.998702

мой фактический файл представлениякак это:

submission.head()
    id         category
0   3729    1
1   3732    1
2   3761    1
3   5       1
4   7       1

1 Ответ

0 голосов
/ 17 апреля 2019

Похоже, вам нужно преобразовать свои результаты обратно в слова! Когда вы токенизировали и дополняли, это превращало слова в числа. Вам просто нужно поменять их обратно! Например:

transformed_category = []
for cat in submission['category']:
   transformed_category.append(tokenizer.word_index(cat))

Ради образования ... Это происходит потому, что математика не может быть выполнена на строках - по крайней мере, не так легко, как это можно сделать с помощью чисел. Таким образом, каждый раз, когда у вас есть текст в ваших нейронных сетях, его нужно превратить в числовое представление, прежде чем вводить в сеть. Векторизаторы (что сделал ваш токенизатор) и «one-hot» или «категорический» являются наиболее распространенными методами. В любом случае, как только вы вернете свои результаты из сети, вы можете превратить их в слова для людей. :)

редактировать после комментариев

Привет! Так что да, я смотрел на колонны косо. Вы получаете значения 1 (или действительно близко), потому что сигмоид может выбирать только от 0 до 1, но, похоже, вы этого хотели, так как ваша потеря двоичная _кросентропия. При активации сигмоида большие значения будут асимметрично приближаться к 1. Поэтому я бы сказал, что вам нужно переосмыслить свой выходной слой. Похоже, что вы отправляете массивы чисел, и похоже, что вы хотите получить категорию, охватывающую от 0 до 1, поэтому рассмотрите возможность превращения данных Y в категориальные , используя softmax в качестве окончательной активации выхода и изменения вашего проигрыша на categorical_crossentropy

...