Ho tra 1000-2000 pagine web da scaricare da un server, e sto usando routine e canali per ottenere un'alta efficienza. Il problema è che ogni volta che eseguo il mio programma fino a 400 richieste falliscono con l'errore "connessione ripristinata dal peer". Raramente (forse 1 su 10 volte), nessuna richiesta fallisce.Vai http.Get, concorrenza e "Connessione ripristinata dal peer"
Cosa posso fare per impedirlo?
Una cosa interessante è che quando ho eseguito questo programma su un server nello stesso paese del server in cui è ospitato il sito, 0 richieste non sono riuscite, quindi suppongo che ci sia qualche problema con il ritardo (dato che è ora in esecuzione su un server in un altro continente).
Il codice che sto usando è fondamentalmente solo una semplice richiesta http.Get (url), nessun parametro extra o un client personalizzato.
Sono tutte o una gran parte delle pagine provenienti dallo stesso server? qual è il numero massimo di richieste che stai facendo contemporaneamente? – JimB
Tutte le pagine provengono dallo stesso server (modificato la domanda per riflettere questo). Non sono sicuro di quanti ne vengano realizzati contemporaneamente. Ho appena iniziato tante routine di go quante sono le pagine web da scaricare e poi lascia che la CPU/Golang impongano i limiti della concorrenza. – fgblomqvist
Non ci sono limiti definiti sulla concorrenza, è necessario farlo da soli. – JimB