Discussione Scaricare un sito

Come faccio a scaricare un intero forum per poter leggere i post etc anche se chiude? È un forum su forumfree.
Puoi usare un software come HTTrack per effettuare il download automatico delle pagine web in questione. Potresti anche valutare l'opzione di non scaricare il sito e di recarti sul portale "www.archive.org": si tratta di un progetto che raccoglie la copia di tutti i siti internet del passato. In questo modo puoi visualizzare com'era fatto il sito che attualmente è stato chiuso.
 
Puoi usare un software come HTTrack per effettuare il download automatico delle pagine web in questione. Potresti anche valutare l'opzione di non scaricare il sito e di recarti sul portale "www.archive.org": si tratta di un progetto che raccoglie la copia di tutti i siti internet del passato. In questo modo puoi visualizzare com'era fatto il sito che attualmente è stato chiuso.
Non ci sono riuscito con httrack, sicuro funziona al 100%?
 
Attenzione httrack scarica le pagine html che semplicemente puoi vedere anche con il browser, ovviamente script PHP non vengono scaricati.

In parole brevi puoi scaricare il frontend ma non il backend.
 
Ultima modifica:
Attenzione httrack scarica le pagine html che semplicemente puoi vedere anche con il browser, ovviamente script PHP non vengono scaricati.

In parole brevi puoi scaricare il frontend ma non il backend.
Ma se sono 2 pagine di un topic per esempio e clicco su pagina 2 ci va o non funziona?
Messaggio unito automaticamente:

Dopo provo a scaricarlo.
 
Ultima modifica:
ma wget da riga di comando vi fa schifo?
Ovvero? Scarica l'intero sito come httrack?
Messaggio unito automaticamente:

Non capisco come funziona httrack, faccio nuovo progetto, metto il nome e mi porta a questa schermata, qui metto l'url e faccio scarica sito, premo avanti ma non fa il download
Messaggio unito automaticamente:

Mi da questo errore
 

Allegati

  • httrack.png
    httrack.png
    8.9 KB · Visualizzazioni: 2
  • errore.png
    errore.png
    8.5 KB · Visualizzazioni: 2
Ultima modifica:
Ovvero? Scarica l'intero sito come httrack?
Messaggio unito automaticamente:

Non capisco come funziona httrack, faccio nuovo progetto, metto il nome e mi porta a questa schermata, qui metto l'url e faccio scarica sito, premo avanti ma non fa il download
Messaggio unito automaticamente:

Mi da questo errore
Il sito è stato chiuso molto probabilmente. Non puoi scaricare un sito se non è più online, in rete. Prova ad utilizzare archive.org e vedi se riesci a scaricare qualche pagina da lì.
 
Ultima modifica:
wget https://nomesito.com , trovi il manuale lanciando man wget da terminale o cercando su google, se non c'è il tools lo installi con sudo apt install wget (vado a memoria) la base regà, la base.

Probabile che alcune sezioni contengano materiale accessibile solo agli utenti registrati, in quel caso ti registri e usi le opzioni di autenticazione di wget.
 
  • Mi piace
Reazioni: --- Ra ---
Non è chiuso il sito. C'è un altro modo oltre httrack che non sia scaricare una pagina alla volta?
Visualizza il file di log che ti compare e mostra l'errore. Molto probabilmente è come dice Psycho, ossia alcune sezioni del sito registrate nel server sono private e il server risponde con lo status 403: la scansione, quindi, viene interrotta.
 
Visualizza il file di log che ti compare e mostra l'errore. Molto probabilmente è come dice Psycho, ossia alcune sezioni del sito registrate nel server sono private e il server risponde con lo status 403: la scansione, quindi, viene interrotta.
Se non ricordo male con wget non la interrompe, solamente non ti scarica le pagine in cui non hai i permessi, al massimo dovrebbe esserci un opzione per il force.
 
  • Mi piace
Reazioni: --- Ra ---
wget https://nomesito.com , trovi il manuale lanciando man wget da terminale o cercando su google, se non c'è il tools lo installi con sudo apt install wget (vado a memoria) la base regà, la base.

Probabile che alcune sezioni contengano materiale accessibile solo agli utenti registrati, in quel caso ti registri e usi le opzioni di autenticazione di wget.
Sono sicuro al 99% che l'utente non sta utilizzando Linux ahaha. In ogni caso, wget è già preinstallato sui SO Linux, non c'è bisogno di installare niente...anche se ho visto che c'è una versione di wget anche per Windows
 
  • Mi piace
Reazioni: Psychonaut
Ecco qui una guida
Messaggio unito automaticamente:

Sono sicuro al 99% che l'utente non sta utilizzando Linux ahaha. In ogni caso, wget è già preinstallato sui SO Linux, non c'è bisogno di installare niente...anche se ho visto che c'è una versione di wget anche per Windows
Ah ok, pensavo usasse Linux come SO, comunque anche su powershell gira wget, è un alias del comando Invoke-webrequest qui una guida per Winzoz
 
  • Love
Reazioni: --- Ra ---
Se non ricordo male con wget non la interrompe, solamente non ti scarica le pagine in cui non hai i permessi, al massimo dovrebbe esserci un opzione per il force.
Lo sai che non ho mai provato? Non ho mai scaricato più di una risorsa con wget :rofl:, quindi non so come si comporta con più pagine, ma posso sempre provare. Poi ci stanno le varie flag, come dici tu, quindi basta sperimentare un po'.
 
Lo sai che non ho mai provato? Non ho mai scaricato più di una risorsa con wget :rofl:, quindi non so come si comporta con più pagine, ma posso sempre provare. Poi ci stanno le varie flag, come dici tu, quindi basta sperimentare un po'.
A lavoro c'ho fatto un pò di script per scaricare manuali xD o per controllare la risposta dei siti, si può usare anche curl
 
  • Mi piace
Reazioni: --- Ra ---
A lavoro c'ho fatto un pò di script per scaricare manuali xD o per controllare la risposta dei siti, si può usare anche curl
curl è molto comodo perché ti permette di cambiare anche gli headers delle richieste http per modificare i cookies, ad esempio.
Un'altra alternativa sarebbe quella di usare un tool come dirb, gobuster, fuff per enumerare tutte le sottocartelle del dominio radice e inserirle in una lista. Fatto questo si può usare un for per scandire la lista e lanciare curl/wget per ogni elemento.
 
Un tempo usavo un programma che consentiva di scaricare tutto il sito con cartelle, file script usati, css ecc...

Non ricordo il nome ma non era difficile da usare.

Ovviamente non potevi scaricare articoli ecc ti scaricava solo la struttura in generale.