Я начинаю работать с большими данными, возвращенными из API. API возвращает тысячи строк в одном запросе, например:
"2000-01-06": {
"1. open": "112.1900",
"2. high": "113.8700",
"3. low": "108.3700",
"4. close": "110.0000",
"5. volume": "27488300"
},
"2000-01-05": {
"1. open": "111.1200",
"2. high": "116.3700",
"3. low": "109.3700",
"4. close": "113.8100",
"5. volume": "32029800"
},
"2000-01-04": {
"1. open": "113.5600",
"2. high": "117.1200",
"3. low": "112.2500",
"4. close": "112.6200",
"5. volume": "27059500"
},
"2000-01-03": {
"1. open": "117.3700",
"2. high": "118.6200",
"3. low": "112.0000",
"4. close": "116.5600",
"5. volume": "26614200"
}
На следующем шаге я хочу работать с данными, фильтровать, искать, строить средние и т. Д. Было бы разумно сначала сохранить данные в моей БД и работать с ними или использовать непосредственно хэш из API? Я использую RoR и Postgres.
Моя идея - хранить данные в реляционной БД со столбцами для даты, открытия, максимума и т. Д.