Моя задача - извлечь html-строки из URL-адресов с использованием Java.
Я знаю, как использовать HttpUrlConnection & InputStream для получения строки.
Однако у меня есть проблема с кодированием для некоторых страниц..
Если некоторые страницы имеют другую кодировку (например, GB2312), отличную от UTF8, полученная строка - это просто произвольные символы или знаки вопроса.
Может ли кто-нибудь подсказать, как решитьэта проблема?
Спасибо
Ниже приведен мой код для загрузки HTML с URL.
private String downloadHtml(String urlString) {
URL url = null;
InputStream inStr = null;
StringBuffer buffer = new StringBuffer();
try {
url = new URL(urlString);
HttpURLConnection conn = (HttpURLConnection) url.openConnection(); // Cast shouldn't fail
HttpURLConnection.setFollowRedirects(true);
// allow both GZip and Deflate (ZLib) encodings
//conn.setRequestProperty("Accept-Encoding", "gzip, deflate");
String encoding = conn.getContentEncoding();
inStr = null;
// create the appropriate stream wrapper based on
// the encoding type
if (encoding != null && encoding.equalsIgnoreCase("gzip")) {
inStr = new GZIPInputStream(conn.getInputStream());
} else if (encoding != null && encoding.equalsIgnoreCase("deflate")) {
inStr = new InflaterInputStream(conn.getInputStream(),
new Inflater(true));
} else {
inStr = conn.getInputStream();
}
int ptr = 0;
InputStreamReader inStrReader = new InputStreamReader(inStr, Charset.forName("GB2312"));
while ((ptr = inStrReader.read()) != -1) {
buffer.append((char)ptr);
}
inStrReader.close();
conn.disconnect();
}
catch(Exception e) {
e.printStackTrace();
}
finally {
if (inStr != null)
try {
inStr.close();
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
}
return buffer.toString();
}