Допустим, мы создаем программу для отображения графика функции (черного ящика), предоставленной пользователем, в виде последовательности отрезков. Мы хотим получить минимальное количество выборок функции, чтобы полученное изображение «выглядело» как функция (точное значение слова «здесь» является частью вопроса). Наивным подходом может быть просто выборка с фиксированными интервалами, но мы, вероятно, можем добиться большего успеха, чем, например, путем выборки «пышных бит» больше, чем «линейных бит». Существуют ли систематические c подходы / исследования по этой проблеме?