В последнее время я работаю с запросами Stream Analytics с PowerBI в качестве выходного приемника.Я сделал простой запрос, который извлекает общее количество http-кодов ответов запросов нашего веб-сайта с течением времени и группирует их по дате и коду ответа.Входные данные извлекаются из учетной записи хранения, в которой хранится BLOB-хранилище.Это мой запрос:
SELECT
DATETIMEFROMPARTS(DATEPART(year,R.context.data.eventTime), DATEPART(month,R.context.data.eventTime),DATEPART(day,R.context.data.eventTime),0,0,0,0) as datum,
request.ArrayValue.responseCode,
count(request.ArrayValue.responseCode)
INTO
[requests-httpresponsecode]
FROM
[cvweu-internet-pr-sa-requests] R TIMESTAMP BY R.context.data.eventTime
OUTER APPLY GetArrayElements(R.request) as request
GROUP BY DATETIMEFROMPARTS(DATEPART(year,R.context.data.eventTime), DATEPART(month,R.context.data.eventTime),DATEPART(day,R.context.data.eventTime),0,0,0,0), request.ArrayValue.responseCode, System.TimeStamp
Поскольку 3 сентября 2018 года был запущен непрерывный экспорт, я выбрал время начала работы 3 сентября 2018 года. Так как до сегодняшнего дня меня интересует статистика, я не включилинтервал дат, поэтому я ожидаю увидеть данные с 3 сентября 2018 года по настоящее время (20 декабря 2018 года).Работа выполняется без ошибок, и я выбрал PowerBI в качестве выходного приемника.Сразу же я увидел, что график распространяется с 3 сентября, сгруппированный по дням и счету.Все идет нормально.Несколько дней спустя я заметил, что выходной набор данных начинался не с 3 сентября, а с 2 декабря до настоящего времени.Видимо данные перезаписываются.
Следующая ссылка говорит:
https://docs.microsoft.com/en-us/azure/stream-analytics/stream-analytics-power-bi-dashboard
" defaultRetentionPolicy: BasicFIFO: данные в формате FIFO, максимум 200 000 строк. "
Но моя выходная таблица не имеет близко к 200.000 строк:
datum,count,responsecode
2018-12-02 00:00:00,332348,527387
2018-12-03 00:00:00,3178250,3282791
2018-12-04 00:00:00,3170981,4236046
2018-12-05 00:00:00,2943513,3911390
2018-12-06 00:00:00,2966448,3914963
2018-12-07 00:00:00,2825741,3999027
2018-12-08 00:00:00,1621555,3353481
2018-12-09 00:00:00,2278784,3706966
2018-12-10 00:00:00,3160370,3911582
2018-12-11 00:00:00,3806272,3681742
2018-12-12 00:00:00,4402169,3751960
2018-12-13 00:00:00,2924212,3733805
2018-12-14 00:00:00,2815931,3618851
2018-12-15 00:00:00,1954330,3240276
2018-12-16 00:00:00,2327456,3375378
2018-12-17 00:00:00,3321780,3794147
2018-12-18 00:00:00,3229474,4335080
2018-12-19 00:00:00,3329212,4269236
2018-12-20 00:00:00,651642,1195501
РЕДАКТИРОВАТЬ: я создал входной источник STREAM в соответствии с https://docs.microsoft.com/en-us/azure/stream-analytics/stream-analytics-quick-create-portal. Я также могу создать вход REFERENCE, но это делает мой запрос недействительным, так как APPLY и GROUPBY не поддерживаются, и я также думаю, что ввод STREAM - это то, что я хочу в соответствии с https://docs.microsoft.com/en-us/azure/stream-analytics/stream-analytics-add-inputs.
Что мне не хватает?Это мой запрос?