Я наткнулся на проблему сглаживания данных, не претендуя на преувеличенную точность измеренных данных.
![Sample of](https://i.stack.imgur.com/IUoUS.png)
Когда я искал простые решения, Я нашел много подходов фильтрации, которые оставляют форму данных неизменной (то есть количество точек данных не уменьшается); с моей точки зрения, это означает либо то, что данные подвергаются некоторому согласованию ( Поваренная книга Scipy: Savitzky Golay ) (что означает, что на самом деле это не исходные данные), либо статистические данные неверный (такой как «смежное усреднение» в источнике), то есть усреднение по окну точек данных для каждой точки данных, потому что он делает вид, что точность выше, чем на самом деле. Я сталкивался со случаями, когда такие сглаживающие артефакты сигнала были значительными, но это не так.
Я создал пример, в котором фактические объекты отображаются неправильно из-за усреднения без уменьшения количества точек данных. Особенно основной пик справа выглядит чрезвычайно расширенным, если вы знаете истинные данные, но большое количество точек данных делает их очень аккуратными и гладкими. Кроме того, уровень шума почти полностью сглажен, но теперь некоторые более мелкие элементы, кажется, поднимаются в центре и представляются в виде значимых данных, но, как вы видите в исходных данных, это не так.
![Incorrect smoothing](https://i.stack.imgur.com/jB1tR.png)
Сейчас я ищу простые / эффективные способы снижения статистически корректного шума, которые не налагают допущений (таких как выбранные функции подгонки и т. Д. c.) На данные, а также на изучение преимуществ или недостатков различных реализаций.