Sto tentando di utilizzare httrack (http://www.httrack.com/) per scaricare una singola pagina, non l'intero sito. Ad esempio, quando si utilizza httrack per scaricare www.google.com, è necessario scaricare solo l'html disponibile su www.google.com insieme a tutti i fogli di stile, immagini e javascript e non seguire alcun collegamento a images.google.com, labs.google.com o www.google.com/subdir/ ecc.pagina singola mirror con httrack
Ho provato l'opzione -w
ma ciò non ha fatto alcuna differenza.
Quale sarebbe il comando giusto?
EDIT
Ho provato ad utilizzare httrack "http://www.google.com/" -O "./www.google.com" "http://www.google.com/" -v -s0 --depth=1
ma poi è abituato copiare le immagini.
Quello che voglio in pratica è scaricare il file di indice di quel dominio insieme a tutti gli asset, ma non il contenuto di nessun link esterno o interno.
wget sarebbe la mia soluzione alternativa se httrack non può fare il lavoro. – Max
la domanda su 'httrack', quindi rimani in pista. wget non esegue JS – Toolkit
'wget' fallisce se le risorse hanno querystring. Scarica i file con la stessa querystring. –