Я использую токенизатор Keras для токенизации предложений, а затем для создания последовательностей индексов слов, которые я могу использовать при обучении нейронных сетей:
from keras.preprocessing.text import Tokenizer
tokenizer = Tokenizer(num_words=5000)
tokenizer.fit_on_texts(X_train)
X_train = tokenizer.texts_to_sequences(X_train)
Как я могу использовать токенизатор NLTK casual_tokenize для достижения аналогичный результат? Toeknizer NLTK не предлагает методtext_to_sequences ().