Ho bisogno di archiviare le pagine complete incluse le immagini collegate ecc. Sul mio server linux. Alla ricerca della soluzione migliore. C'è un modo per salvare tutte le risorse e ricollegarle tutte per funzionare nella stessa directory?Qual è il modo migliore per salvare una pagina Web completa su un server Linux?
Ho pensato di usare il ricciolo, ma non sono sicuro di come fare tutto questo. Inoltre, avrò forse bisogno di PHP-DOM?
C'è un modo per utilizzare firefox sul server e copiare i file temporanei dopo che l'indirizzo è stato caricato o simile?
Qualsiasi ingresso è benvenuto.
Edit:
Sembra come se wget è 'non' andare a lavorare come hanno bisogno di essere reso i file. Ho Firefox installato sul server, c'è un modo per caricare l'URL in Firefox e quindi prendere i file temporanei e cancellare i file temporanei dopo?
Tutto il contenuto è statico o esiste anche un contenuto dinamico (PHP, JSP, ecc.)? – thkala
Questo fa parte di un'app Web client, quindi potrebbe esserci qualcosa. Sarebbe meglio usare javascript o java o simili per inviare lo stato corrente del browser al server e poi fare ciò che è necessario. – Tomas
Ci sono altre alternative in [ottenere un browser reso html + javascript] (https://stackoverflow.com/q/18720218) –