Ошибка тайм-аута при сохранении больших данных в упругом поиске - PullRequest
1 голос
/ 25 сентября 2019

Я работаю над сохранением данных из zip-файла в Elasticsearch DB в приложении Python, в котором zip-файл содержит HTML-страницы и доменные имена.Теперь мне нужно отправить данные в массив из этого файла, а затем сохранить их в базе данных Elastic search.

Проблема в том, что иногда, когда объем данных велик, поскольку HTML может быть любого размера, я получаюошибка:

urllib3.exceptions.ReadTimeoutError: HTTPConnectionPool(host='localhost', port=9200): Read timed out. (read timeout=300)

ConnectionTimeout вызвано - ReadTimeoutError (HTTPConnectionPool (host = 'localhost', port = 9200): тайм-аут чтения. (тайм-аут чтения = 300))

Я пыталсяувеличение значения тайм-аута, но я не знаю, как долго в будущем могут сохраняться данные, чтобы сэкономить на обновлении, поэтому не уверен, какое значение я должен поставить туда.

Может кто-нибудь, пожалуйста, помогите мне узнать, если это единственный способ или есть другой лучший способ исправить это.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...