Я работаю над сохранением данных из zip-файла в Elasticsearch DB в приложении Python, в котором zip-файл содержит HTML-страницы и доменные имена.Теперь мне нужно отправить данные в массив из этого файла, а затем сохранить их в базе данных Elastic search.
Проблема в том, что иногда, когда объем данных велик, поскольку HTML может быть любого размера, я получаюошибка:
urllib3.exceptions.ReadTimeoutError: HTTPConnectionPool(host='localhost', port=9200): Read timed out. (read timeout=300)
ConnectionTimeout вызвано - ReadTimeoutError (HTTPConnectionPool (host = 'localhost', port = 9200): тайм-аут чтения. (тайм-аут чтения = 300))
Я пыталсяувеличение значения тайм-аута, но я не знаю, как долго в будущем могут сохраняться данные, чтобы сэкономить на обновлении, поэтому не уверен, какое значение я должен поставить туда.
Может кто-нибудь, пожалуйста, помогите мне узнать, если это единственный способ или есть другой лучший способ исправить это.