Проблема, которую вы пытаетесь решить, называется классификацией текста.
Для вашей проблемы могут быть использованы LSTM. Они могут использоваться для предсказания следующего слова в предложении, но не обязательно. Как правило, сеть принимает слово за словом (или подсловами или символами) и обновляет свое скрытое состояние на основе этого. Эти состояния могут использоваться для прогнозирования следующего слова, но обязательно. Например, вы можете взять конечные состояния сети и запустить классификатор поверх нее. В этом случае LSTM обычно являются двунаправленными: есть две сети, каждая из которых работает с другого конца текста.
Более поздней популярной альтернативой LSTM является архитектура Transformer. Использование предварительно обученной модели BERT кажется хорошим решением вашей проблемы, например, использование реализации Huggingface в Pytorch .