Мне любопытно, и я думаю здесь вслух - держу пари, что это не на стороне разработчика, на самом деле больше подходит для ServerFault, что-то вроде сетевой проблемы?
Я говорю так, чтобы не обескураживать ваш вопрос, но, возможно, помочь вам думать за пределами обычных подозреваемых.
Так что это удар в темноте, но, учитывая, что вы запускаете это из браузера, я думаю, вы могли бы также сделать это с Wget?
Я выполнил некоторые HTTP-запросы, которые правильно закодированы и в качестве меры предосторожности должны завершиться примерно после 1000 итераций, но по какой-то причине они этого не делают (даже изменяя для этого конфигурацию FF).
Однако выполнение того же HTTP-запроса от Wget работает как чемпион.
Из записи Википедии на Wget:
Wget был разработан для надежности
по медленной или нестабильной сети
соединения. Если загрузка не
завершить из-за проблем с сетью,
Wget автоматически попытается
продолжить загрузку откуда
перестал и повторять это до
Весь файл был получен. это было
один из первых клиентов, чтобы использовать
нового тогда HTTP-заголовка Range
поддерживать эту функцию.
Что вы думаете? Я не предлагаю это с убеждением, но на догадку. Если я не прав, может, это шаг за пределы коробки, ближе к решению? Удачи в исправлении! Я хочу знать, что это такое. :)