Меня смущает «зная n (h-1)> n (h-2), мы получаем n (h)> 2n (h-2)». Разве это не заставляет нас терять точность? Как сделать так, чтобы полученный результат был максимально точным. В крайнем случае, который я рассматриваю, я мог бы просто сказать: «зная n (h)> n (h-1), мы получаем n (h)> n (h-1)> n (h-2) ... и так on ", но это явно неправильно, потому что я сбросил слишком много данных, поэтому граница не является жесткой. но почему он работает с n (h-1)> n (h-2)? введите описание изображения здесь