http.content.limit: -1 означает, что вы получите URL, пока не доберетесь до конца его содержимого. Если URL указывает на бесконечный поток, например онлайн-радио, тогда потребление памяти будет расти до тех пор, пока не произойдет сбой JVM. Это даст вам исключение нехватки памяти, и это, вероятно, не то, что здесь происходит.
РЕДАКТИРОВАТЬ: спасибо, что поделились URL. Я могу воспроизвести проблему, не могли бы вы открыть проблему на GitHub? Спасибо!
ЗАКЛЮЧЕНИЕ: это не ошибка как таковая, просто при извлечении целых документов (209 и 350 КБ) преобразование из документа JSoup в DocumentFragments требует много рекурсии и нарушает ограничение стека.
Мне удалось проанализировать 2 URL, которые вы дали, установив -Xss10M в качестве аргументов виртуальной машины.