У меня вопрос по поводу производительности:
У меня довольно статичный JSON-файл длиной ~ 25000 строк.Этот файл используется для запроса и извлечения некоторых значений.
Мне интересно, что обеспечит наивысшую производительность :
- Прочитайте этот файл и сохраните его в памяти, просмотрите файл, чтобы запросить результаты.
Или
- Загрузить файл как документы в базу данных PouchDB и создать представления для необходимых запросов.
Вот пример того, как будет выглядеть файл:
[
{
"ATL1": "AD",
"ATL2": "Server",
"ATL3": "Cloud 1",
"ATT": "SSS Server",
"Base1": "Per Image",
"TAG": 147897,
"LID": "43834",
"R1": "Intel",
"R2": "Infra",
"R3": "",
"BL1": "Distributed",
},
{
"ATL1": "AD",
"ATL2": "Server",
"ATL3": "Cloud 2",
"ATT": "SSS Server",
"Base1": "Per Image",
"TAG": 098765,
"LID": "45334",
"R1": "Intel",
"R2": "Infra",
"R3": "",
"BL1": "Distributed",
},
{
"ATL1": "AD",
"ATL2": "Server",
"ATL3": "System Services",
"ATT": "SSS Server",
"Base1": "Per CPU",
"TAG": 098765,
"LID": "42534",
"R1": "UNIX",
"R2": "Infra",
"R3": "XXXX",
"BL1": "Distributed",
},
...
]