Я бы не согласился с ответом Даниила о том, что ни HTTP-клиент, ни crawler4j не поддерживают javascript, который требуется для этой страницы. Selenium, вероятно, лучшее решение.
Ниже приведен пример использования jsoup для извлечения страницы, заполнения формы и отправки ее. Результатом будет json, и вы передадите эту строку в gson или тому подобное. Я не сделал, чтобы страница была очень нестабильной только в обычном браузере, и иногда перехватывал ввод адреса, а иногда вызывал раздражение при этом же вводе.
Document doc = Jsoup.connect("https://www.xfinity.com/learn/offers").get();
FormElement form = (FormElement) doc.selectFirst("[data-form-dealfinder-localization]");
Element input = form.selectFirst("#Address_StreetAddress");
input.val("2000 YALE AVE E, SEATTLE, WA 98102");
String json = form.submit().ignoreContentType(true).execute().body();
System.out.println(json);