Я вставляю документы, поступающие из Apache Spark через структурированную потоковую передачу в ES.
К сожалению, в соединителе Spark-ES есть нерешенная ошибка (https://github.com/elastic/elasticsearch-hadoop/issues/1173), которая отрицательно сказывается на этой датеполя на стороне источника (Spark) отправляются в приемник как ES-метки времени / длинные типы.
Я подумал, что шаблон индекса для его преобразования на стороне ES может быть хорошим обходным путемв правильном формате (дата) в ES.
Мой шаблон индекса:
{
"index_patterns": "my_index_*",
"mappings": {
"peerType_count": {
"dynamic_templates": [
{
"timestamps": {
"path_match": "*.window.*",
"match_mapping_type": "long",
"mapping": {
"type": "date",
"format": "epoch_millis"
}
}
}
]
}
}
}
Но документ в ES по-прежнему имеет метку времени Unix: - /
{
"_index": "my_index",
"_type": "peerType_count",
"_id": "kUGWNmcBtkL7EG0gS280",
"_version": 1,
"_score": 1,
"_source": {
"window": {
"start": 1535958000000,
"end": 1535958300000
},
"input__source_peerType": "peer2",
"count": 1
}
}
У кого-нибудь есть идеи, что может быть не так?
PS: Есть ли хороший отладчик es-mapping-отладчика?