Играя с обновляя существующий учебник данных и пытаясь понять, как я могу заменить существующие данные, я заметил в инструменте dsql
, что поле intervals
игнорируется, и все данные вфайл загружается.
Это данные, которые я принял:
{"timestamp":"2018-01-01T09:01:35Z","animal":"a", "number":1}
{"timestamp":"2018-01-02T08:01:35Z","animal":"b", "number":2}
{"timestamp":"2018-01-03T07:01:35Z","animal":"c", "number":3}
{"timestamp":"2018-01-04T06:01:35Z","animal":"d", "number":4}
{"timestamp":"2018-01-05T06:01:35Z","animal":"e", "number":5}
А вот наиболее важные части спецификации задачи:
{
"type" : "index",
"spec" : {
"dataSchema" : {
"dataSource" : "updates-tutorial",
"parser" : {
"type" : "string",
...
"granularitySpec" : {
"type" : "uniform",
"segmentGranularity" : "week",
"queryGranularity" : "minute",
"intervals" : ["2018-01-03/2018-01-05"],
"rollup" : true
}
},
"ioConfig" : {
"type" : "index",
"firehose" : {
"type" : "local",
"baseDir" : "quickstart/tutorial",
"filter" : "updates-data2.2.json"
},
"appendToExisting" : false
},
"tuningConfig" : {
"type" : "index",
"maxRowsPerSegment" : 5000000,
"maxRowsInMemory" : 25000
Этонесмотря на документацию , а также ответ участника Druid .
Чего мне не хватает?