Почему text_to_sequence () выводит как пустой массив? - PullRequest
0 голосов
/ 06 марта 2020

Я пытаюсь предсказать, используя предварительно обученную модель.

и тексты_в_последовательности (twt) возвращают и пустой массив. Поэтому прогноз всегда отрицательный. для всех входов.

from keras.preprocessing.sequence import pad_sequences
twt=['happy']
#vectorizing the tweet by the pre-fitted tokenizer instance
twt = tokenizer.texts_to_sequences(twt)
print(twt)
#padding the tweet to have exactly the same shape as `embedding_2` input
twt = pad_sequences(twt, maxlen=50, dtype='int32', value=0)
print(twt)
sentiment = model.predict(twt,batch_size=1,verbose = 2)[0]
print(sentiment)
if(np.argmax(sentiment) == 0):
    print("negative")
elif (np.argmax(sentiment) == 1):
    print("positive")

Вывод:

[[]]
[0.89889544 0.10110457]
negative

Как это исправить?

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...