Это то, что я на самом деле сделал, и это сработало. Поскольку я использую Docker и GCP, мне нужно обновить Dockerfile, чтобы GCP знал, как создать образ:
RUN python -m nltk.downloader all -d /usr/local/nltk_data
Журнал, полученный от GCP, выглядит следующим образом:
2019-11-08 18:39:32.900 PST Attempted to load [93mtokenizers/punkt/PY3/english.pickle[0m
2019-11-08 18:39:32.900 PST
2019-11-08 18:39:32.900 PST Searched in:
2019-11-08 18:39:32.900 PST - '/home/nltk_data'
2019-11-08 18:39:32.900 PST - '/usr/local/nltk_data'
2019-11-08 18:39:32.900 PST - '/usr/local/share/nltk_data'
2019-11-08 18:39:32.900 PST - '/usr/local/lib/nltk_data'
2019-11-08 18:39:32.900 PST - '/usr/share/nltk_data'
2019-11-08 18:39:32.900 PST - '/usr/local/share/nltk_data'
2019-11-08 18:39:32.900 PST - '/usr/lib/nltk_data'
2019-11-08 18:39:32.900 PST - '/usr/local/lib/nltk_data'
2019-11-08 18:39:32.900 PST - ''
И настоящая проблема здесь не в том, куда поместить данные nltk, а в том, что GCP не будет повторно инициировать образ докера достаточно часто, поэтому я должен вручную вставить новый образ докера в репозиторий изображений GCP,и разверните его из Cloud Run!