У меня есть код, где мне нужно загружать массовые записи, такие как (50000) из CSV.Начиная с углового 6, мы делаем вызов restpi, откуда мы передаем данные формы на сервер узла.В части узла мы зацикливаем этот набор записей (50 000) и загружаем его в наш бэкэнд, разбивая его как 1500. Записи будут загружаться для каждого последовательного 1500.
Так что в нашем локальном это работаетсовершенно нормально, и мы протестировали загрузку тех же 50000 записей.Но мы перенесли тот же код в нашу среду SIT, где мы сталкиваемся с ошибкой.После загрузки определенного количества записи (20000 записей), снова начинается загрузка с первой записи.Это странное поведение, которое мы не могли проверить локально.Может ли кто-нибудь, пожалуйста, предложить, что мне нужно сделать?
var bulkUploadData = async function (jsonblob, res) {
var payloadjson = [];
var jsonResponse = {};
try {
for (let i = 0; i < jsonblob.length; i++) {
if(jsonblob[i].PN != null){
var JFB = {}
var arrayy = [];
if (jsonblob[i].Otyp != "L") {
JFB.srv = jsonblob[i].SA;
JFB.ptype = jsonblob[i].PTy;
JFB.ms = jsonblob[i].PN;
var a = JSON.stringify(JFB)
payloadjson.push(a);
}
else {
JFB.ms = jsonblob[i].PN
JFB.srv = jsonblob[i].SA;
JFB.ptype = jsonblob[i].PTy;
var a = JSON.stringify(JFB)
payloadjson.push(a);
}
if ((payloadjson.length % 1500) == 0) {
console.log("Inside first loop---------counter--------- ", i );
var result = await update.invokeSDK("fnname", payloadjson, res)
payloadjson = [];
await sleepTime(20)
console.log("-----sleeped for 20ms----- ",i)
}
if (jsonblob.length == i + 1 && payloadjson.length > 0) {
var result = await update.invokeSDK("fnname", payloadjson, res)
payloadjson = [];
}
}
console.log("FRKNG Length _________i: ",i);
}
jsonResponse = { "failedRecords": "fail" }
return jsonResponse;
} catch (err) {
console.log('error:----', err);
return err;
}
}