Я пытаюсь получить документы в коллекции mongodb, используя скрипт databricks в pyspark.Я пытаюсь получить данные за каждый день.Скрипт работает хорошо в течение нескольких дней, но иногда выдает следующую ошибку в течение некоторого дня.
com.mongodb.MongoInternalException: The reply message length 14484499 is less than the maximum message length 4194304.
Не уверен, что это за ошибка и как ее устранить.Любая помощь приветствуется.
Это пример кода, который я использую:
pipeline = [{'$match':{'$and':[{'UpdatedTimestamp':{'$gte': 1555891200000}},
{'UpdatedTimestamp':{'$lt': 1555977600000}}]}}]
READ_MSG = spark.read.format("com.mongodb.spark.sql.DefaultSource")
.option("uri",connectionstring)
.option("pipeline",pipeline)
.load()
Дата и время предоставляются в формате эпох.