che sto raschiando dati fuori diverse migliaia di pagine con l'URL generale:Se ricevo un errore del server interno 500 in Scrapy, come faccio a saltare l'URL?
http://example.com/database/?id=(some number)
dove io sono in esecuzione attraverso i numeri ID.
Continuo a riscontrare enormi blocchi di URL che generano un errore interno del server di 500, e per qualche motivo scrapy ripercorre più volte questi blocchi. Questo consuma molto tempo, quindi mi chiedo se c'è un modo per passare immediatamente al prossimo URL e non avere richieste di scrapy più volte.
http://doc.scrapy.org/en/latest/topics/downloader-middleware.html - Hai guardato questo. Sembra che il tentativo sia abilitato di default. L'ho sfogliato e non l'ho letto profondamente. – PyNEwbie