Altro Bash: aiuto comando wget

Stato
Discussione chiusa ad ulteriori risposte.

Psychonaut

Utente Jade
17 Giugno 2012
1,485
89
738
747
Ultima modifica:
Salve volevo scrivere uno script per scaricare delle ROM da un sito, e ho usato wget inserendo il link che ho copiato dal "pulsante" da cui normalmente parte il download della ROM(Di solito sono file ISO zippati), ma a download finito mi scarica solo una pagina index.html, il sito usa HTTPS, devo inserire qualche opzione particolare nel wget? link di una ROM(https://coolrom.com.au/downloader.php?id=45602)se invece clicco il tasto il link si trasforma in questo(https://coolrom.com.au/roms/psp/45602/Assassin's_Creed_-_Bloodlines.php).

Sto leggendo anche di Aria2, sembra molto più performante del semplice wget, qualcuno l'ha mai usato?
 
@nullptr Potresti spiegarmi meglio il comando? immagino che -O serva ad impostare il nome del file, quindi dovrei fare una cosa del genere:
wget -O nome_gioco.zip "[URL]https://coolrom.com.au/downloader.php?id=45602[/URL]"
giusto?
 
@nullptr Potresti spiegarmi meglio il comando? immagino che -O serva ad impostare il nome del file, quindi dovrei fare una cosa del genere:
wget -O nome_gioco.zip "[URL]https://coolrom.com.au/downloader.php?id=45602[/URL]"
giusto?
Hai sbagliato URL, non devi fare wget su quello. Non ho controllato bene, ma quel link dovrebbe fare un redirect a questo link, che sarebbe il file eseguibile che vorresti scaricare.
 
a questo punto mi sorge una domanda, io posso solo cliccare il primo link, come faccio a trovare il link di reindirizzamento da cui viene scaricato il file?(come hai fatto tu in pratica)
 
@Drachetto 96 posso utilizzare i link che ho postato nel primo topico o devo usare i link che mi ha suggerito nullptr?

@nullptr ho provato con una VM con sopra Microsoft e ho trovato gli indirizzi di cui parli

Comunque ho provato a creare due script, uno con cUrl e uno con wget, entrambi mi scaricano dei file inferiori come grandezza a quello che scarico dal browser, ho provato a scaricarli sia con estensione 7z che iso, ma sono sempre più piccoli, domani faccio altre prove.
 
Non hai bisogno di utilizzare curl, wget "supporta" già i redirect.

Comunque ricontrollando meglio, wget supera la ridirezione col comando di default (entro un limite di 20). Quindi il semplice:
Bash:
~ $ wget https://coolrom.com.au/downloader.php?id=45602
andava già bene, forse ti sembrava il file sbagliato semplicemente perchè avresti dovuto rinominarlo in un file eseguibile. Puoi far sì che l'eseguibile venga macchinalmente salvato con il nome corretto dato che il server ne puntella alcuni dati attraverso l'header Content-Disposition:
Bash:
~ $ wget --content-disposition https://coolrom.com.au/downloader.php?id=45602

In alternativa puoi sempre customizzare il nome del file da salvare con -O filename.exe.

Comunque ho provato a creare due script, uno con cUrl e uno con wget, entrambi mi scaricano dei file inferiori come grandezza a quello che scarico dal browser, ho provato a scaricarli sia con estensione 7z che iso, ma sono sempre più piccoli, domani faccio altre prove.
Ho provato a scaricare dal browser e con wget il file eseguibile in OP, ho lanciato md5sum su entrambi i file e coincidono. Bisogna capire cosa succede quando scarichi questi file, incollaci l'output di wget attivando il debug mode con -d.
 
Ultima modifica:
@nullptr forse ho capito dove sta l'errore, ho provato su un'altro sito a scaricare delle ROM's(emuparadise) e delle iso, senza tirarla per le lunghe questo sito faceva partire il download del file dal server solo dopo aver scaricato e avviato un file exe con GUI annessa.
Quindi credo che il sito dei link precedenti(coolrom) faccia la stessa cosa, ovvero far partire in background un eseguibile che ha il compito di richiamare il file dal server, è possibile?

Cmq usando emuparadise sono riuscito a trovare il link per scaricare le iso direttamente dal server, tramite il semplice wget http://ecc.. grazie mille per l'aiuto e per i consigli.

Un'altra domanda inerente al wget, ho provato a scaricare un forum/sito intero in questi giorni, dopo il download corretto di un migliaio di pagine inizia a darmi error 400, ho provato ad aprire uno dei link è sul forum mi diceva che per visualizzare il contenuto dovevo essere registrato, può essere questa la causa dell'errore e della non risoluzione della richiesta?
 
Un'altra domanda inerente al wget, ho provato a scaricare un forum/sito intero in questi giorni, dopo il download corretto di un migliaio di pagine inizia a darmi error 400, ho provato ad aprire uno dei link è sul forum mi diceva che per visualizzare il contenuto dovevo essere registrato, può essere questa la causa dell'errore e della non risoluzione della richiesta?
Probabilmente devi impostare wget con gli header/parametri opportuni per scaricare la pagina, o il server non può o non processerà la richiesta.
 
  • Mi piace
Reazioni: Psychonaut
Stato
Discussione chiusa ad ulteriori risposte.