Я только начал обработку естественного языка и хотел бы знать, как правильно запустить word_tokenize & sent_tokenize .Я знаю, что Python уже предложил сделать следующее
import nltk
nltk.download('punkt')
Но наш прокси не позволяет нам "загружать", используя python.К счастью, я могу загрузить файлы через http://www.nltk.org/nltk_data/
И я попытался создать nltk_data и извлечь там punkt, но проблема все еще сохраняется.Я хотел бы знать, как решить эту проблему с вашим опытом.