Ho un server web.py che risponde a varie richieste dell'utente. Una di queste richieste comporta il download e l'analisi di una serie di pagine Web.Python: semplice download asincrono del contenuto dell'URL?
C'è un modo semplice per configurare un meccanismo di download url async/callback basato su web.py? L'utilizzo limitato delle risorse è particolarmente importante in quanto ogni richiesta avviata dall'utente potrebbe comportare il download di più pagine.
Il flusso sarà simile:
richiesta utente -> web.py -> Scarica 10 pagine in parallelo o in modo asincrono - contenuti> Analizzare, restituire risultati
riconosco che ritorto sarebbe un bel modo per fare questo, ma io sono già in web.py quindi sono particolarmente interessato a qualcosa che possa adattarsi a web.py.
Ho alcuni correzioni di errori al codice asynchttpclient. Ho provato a spedire l'autore, ma lui non sembra essere nei paraggi. Se vuoi quelle correzioni, puoi scrivermi. Ho anche abilitato il pipelining della richiesta HTTP, che dovrebbe dare un ulteriore impulso alla velocità per molte richieste piccole. – dhruvbird
Puoi trovare le correzioni dei bug e le estensioni al client asynchttp qui: http://code.google.com/p/asynhttp/ – dhruvbird