При импорте из монго в большой запрос возникают следующие ошибки. У нас есть скрипт, который подготавливает данные из дампа Монго на s3 (около 2,8 ГБ), а затем преобразует его в «NEWLINE_DELIMITED_JSON».
Этот скрипт до недавнего времени работал нормально и не менялся.
Кто-нибудь знает, как устранить эту проблему и найти документ, вызывающий проблемы?
"status": {
"errorResult": {
"message": "Error while reading data, error message: JSON table encountered too many errors, giving up. Rows: 41081; errors: 1. Please look into the errors[] collection for mor
e details.",
"reason": "invalid"
},
"errors": [
{
"message": "Error while reading data, error message: JSON table encountered too many errors, giving up. Rows: 41081; errors: 1. Please look into the errors[] collection for m
ore details.",
"reason": "invalid"
},
{
"message": "Error while reading data, error message: JSON processing encountered too many errors, giving up. Rows: 41081; errors: 1; max bad: 0; error percent: 0",
"reason": "invalid"
},
{
"message": "Error while reading data, error message: JSON parsing error in row starting at position 2890606042: Parser terminated before end of string",
"reason": "invalid"
}
],
"state": "DONE"