#elasticsearch #aggregation #group-concat
#elasticsearch #агрегация #группа-concat
Вопрос:
Я новичок в elasticsearch, и я хотел бы создать агрегацию group_concat. Но я не знаю, как это сделать. Может кто-нибудь мне помочь, пожалуйста.
Пример данных:
POST /example_measures/_bulk
{"index":{"_id":1}}
{"id":"1","datapoint_id":"1","datetime":"1577833200000","value":"5"}
{"index":{"_id":2}}
{"id":"2","datapoint_id":"2","datetime":"1577833210000","value":"51"}
{"index":{"_id":3}}
{"id":"3","datapoint_id":"2","datetime":"1577833220000","value":"77"}
То, что я хочу выразить в sql:
select
datapoint_id,
group_concat(`datetime` order by `datetime` SEPARATOR ',' limit 5) as dt,
group_concat(`value` order by `datetime` SEPARATOR ',' limit 5) as val
from example_measures
group by datapoint_id;
Я хотел бы иметь 2 массива на точку данных. Один с временными метками и один со значениями.
Я не добился успеха с синтаксисом sql, потому что group_concat не поддерживается при вводе sql:
POST /_sql?format=txt
{
"query":"..."
}
Я использую Kibana и инструменты разработчика для ввода.
Комментарии:
1. не могли бы вы, пожалуйста, поделиться своими ожидаемыми результатами?
2. @Bhavya ожидаемый результат: {«datapoint_id»:»1″, «dt»: [«1577833200000»], «val»:[«5″]}, {» datapoint_id»: «2», «dt»: [«1577833210000», «1577833220000»], » вэл»:[«51», «77»]}
Ответ №1:
Вы можете реализовать свой вариант использования, используя агрегацию терминов по datapoint_id
полю. Это создаст сегменты — одно pe уникальное значение datapoint_id
. И затем вы можете дополнительно встраивать сегменты внутри этих уникальных сегментов, используя подагрегации.
Поисковый запрос:
{
"size": 0,
"aggs": {
"id": {
"terms": {
"field": "datapoint_id.keyword"
},
"aggs": {
"dt": {
"terms": {
"field": "datetime.keyword",
"order": { "_key" : "asc" },
"size": 5
}
},
"val": {
"terms": {
"field": "value.keyword",
"size": 5
}
}
}
}
}
}
Результат поиска:
"aggregations": {
"id": {
"doc_count_error_upper_bound": 0,
"sum_other_doc_count": 0,
"buckets": [
{
"key": "2",
"doc_count": 2,
"val": {
"doc_count_error_upper_bound": 0,
"sum_other_doc_count": 0,
"buckets": [
{
"key": "51",
"doc_count": 1
},
{
"key": "77",
"doc_count": 1
}
]
},
"dt": {
"doc_count_error_upper_bound": 0,
"sum_other_doc_count": 0,
"buckets": [
{
"key": "1577833210000",
"doc_count": 1
},
{
"key": "1577833220000",
"doc_count": 1
}
]
}
},
{
"key": "1",
"doc_count": 1,
"val": {
"doc_count_error_upper_bound": 0,
"sum_other_doc_count": 0,
"buckets": [
{
"key": "5",
"doc_count": 1
}
]
},
"dt": {
"doc_count_error_upper_bound": 0,
"sum_other_doc_count": 0,
"buckets": [
{
"key": "1577833200000",
"doc_count": 1
}
]
}
}
]
}
}
Комментарии:
1. @chupacabra у вас была возможность просмотреть мой ответ, с нетерпением жду обратной связи от вас 🙂
2. @chupacabra рад, что это сработало для вас 🙂 Спасибо, что приняли мой ответ, не могли бы вы также проголосовать за ответ 🙂