Desidero scaricare alcune pagine da un sito Web e l'ho fatto con successo utilizzando curl
ma mi chiedevo se in qualche modo lo curl
scarica più pagine alla volta, proprio come fa la maggior parte dei download manager, sarà accelera un po 'le cose. È possibile farlo nel programma di utilità della riga di comando curl
?Download parallelo utilizzando l'utilità della riga di comando di Curl
Il comando corrente che sto usando è
curl 'http://www...../?page=[1-10]' 2>&1 > 1.html
Qui sto scaricando le pagine da 1 a 10 e la loro memorizzazione in un file chiamato 1.html
.
Inoltre, è possibile per curl
a scrivere l'output di ogni URL di file separato dire URL.html
, dove URL
è l'URL reale della pagina sotto processo.
pre-richiesta per scoprire la lunghezza del contenuto, utilizzare '--range' per unire il singolo a più download, eseguire il curl multiprocesso, mantenere l'ordine dei blocchi e unirli non appena è stata ordinata la sequenza , è ciò che la maggior parte degli sviluppatori sta facendo (ad esempio: [progetto htcat] (https://github.com/eladkarako/htcat)) –