[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

Re: [RiminiLUG-General] scaricamento di alcune sezioni di un sito (wget e altri)



On Thu, 03 Feb 2011 18:27:31 +0100
Ivan Tarozzi <ivan@xxxxxxxxxxxx> wrote:

> Il giorno gio, 03/02/2011 alle 17.22 +0100, CIACCI ha scritto:
> > Salve Lug,
> > 
> > Vorrei scaricare questa pagina
> > 
> > http://www.tissino.it/esempi/pagineweb/
> > 
> > Per poterla consultare off-line.
> > 
> > In passato ho provato httptrack ma non sono riuscito sempre nel mio
> > intento e non ho approfondito l'argomento dato
> > che non ho avuto più questa esigenza.
> > 
> > Ho provato con gwget ma mi veniva scaricato solo l'index.
> > ho provato quindi con wget e da web sono stato consigliato
> > all'utilizzo delle opzioni -mk
> > Il sito è stato scaricato tutto e tra l'altro i link che della
> > pagina che mi interessava non funzionano sebbene i file siano
> > presenti e i collegamenti sembrino corretti:
> > 
> > Allora chiedo a chi ha più esperienza di me:
> > 
> > 1) Qualcuno ha utilizzato mai gwget? (a me non salva le preferenze)
> > 2) Quale potrebbe essere una possibile causa dei link non
> > funzionanti con wget? 3) Come faccio a scaricare SOLO la cartella
> > "esempi" senza scaricare tutto il sito?
> > 4) Mi è capitato di usare aria2 può scaricare un sito? Qualcuno lo
> > conosce? 5)Mi consigliate in caso qualche strumento più da
> > ignoranti?  :-)
> > 
> > Chiedo scusa per la pigrizia e per l'imprecisione delle domande ma
> > vorrei sentire la vostra esperienza nel frattempo che trovo
> > l'occasione di approfondire l'argomento.
> > 
> > Andrea.
> > 
> 
> non sono molto pratico, e quindi non ci metto la mano sul fuoco, ma
> credo che (essendo un sito in php) non sia possibile scaricare le
> pagine con i link funzionanti
> 

Vero

> Se però alla fine a te interessa vedere solo gli esempi, tanto vale
> scaricarsi con wget le pagine e poi andarsele ad aprire con un buon
> editor di testo.
> 
> Ivan
>