Это возможно, и можно утверждать, что большинство схем сжатия изображений с потерями от DCT в стиле JPEG до фрактальное сжатие по сути делают это по-своему.
Обратите внимание, что такие методы почти всегда работают с небольшими фрагментами изображения, а не с большим изображением, чтобы максимизировать сжатие в областях с меньшей детализацией, вместо того, чтобы ограничивать применение одних и тех же настроек везде. Последнее, скорее всего, приведет к плохому сжатию и / или большим потерям на большинстве «реальных» изображений, которые обычно содержат смесь уровней детализации, хотя есть исключения, подобные вашему не в фокусе.
Вам нужно будет определить, что составляет "большую часть деталей исходного изображения", поскольку идеальное восстановление будет возможно только для довольно искусственных изображений. И вам также необходимо указать точную форму масштабирования, которая будет использоваться в каждом случае, так как это может оказать довольно существенное влияние на качество восстановления. Например, простое повторение пикселей будет лучше сохранять твердые края, но разрушать плавные градиенты, в то время как линейная интерполяция должна лучше воспроизводить градиенты, но может нанести ущерб краям.
Упрощенный, нестандартный подход может состоять в том, чтобы рассчитать двухмерный спектр мощности и выбрать масштабирование (возможно, отличающееся по вертикали и горизонтали), которое сохраняет частоты, которые содержат «большую часть» контента. По сути, это было бы эквивалентно выбору фильтра нижних частот, который удерживает «большую часть» деталей. Вопрос о том, считается ли такой подход "вычислительно эффективным", может быть спорным ...