Ho provato altri metodi per scaricare informazioni da un URL, ma avevo bisogno di uno più veloce. Devo scaricare e analizzare circa 250 pagine separate e vorrei che l'app non sembrasse ridicolmente lenta. Questo è il codice che sto attualmente usando per recuperare una singola pagina, qualsiasi intuizione sarebbe ottima.C'è un modo più veloce per scaricare una pagina dalla rete in una stringa?
try
{
URL myURL = new URL("http://www.google.com");
URLConnection ucon = myURL.openConnection();
InputStream inputStream = ucon.getInputStream();
BufferedInputStream bufferedInputStream = new BufferedInputStream(inputStream);
ByteArrayBuffer byteArrayBuffer = new ByteArrayBuffer(50);
int current = 0;
while ((current = bufferedInputStream.read()) != -1) {
byteArrayBuffer.append((byte) current);
}
tempString = new String(byteArrayBuffer.toByteArray());
}
catch (Exception e)
{
Log.i("Error",e.toString());
}
250 pagine? Stai costruendo una sorta di database? –