[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

Re: [RiminiLUG-General] scaricamento di alcune sezioni di un sito (wget e altri)



Il giorno gio, 03/02/2011 alle 20.02 +0100, Roberto Forlani ha scritto:
> Il 03/02/2011 19:13, Marco Zavatta ha scritto:
> > On Thu, 03 Feb 2011 18:27:31 +0100
> > Ivan Tarozzi<ivan@xxxxxxxxxxxx>  wrote:
> >
> >> Il giorno gio, 03/02/2011 alle 17.22 +0100, CIACCI ha scritto:
> >>> Salve Lug,
> >>>
> >>> Vorrei scaricare questa pagina
> >>>
> >>> http://www.tissino.it/esempi/pagineweb/
> >>>
> >>> Per poterla consultare off-line.
> >>>
> >>> In passato ho provato httptrack ma non sono riuscito sempre nel mio
> >>> intento e non ho approfondito l'argomento dato
> >>> che non ho avuto più questa esigenza.
> >>>
> >>> Ho provato con gwget ma mi veniva scaricato solo l'index.
> >>> ho provato quindi con wget e da web sono stato consigliato
> >>> all'utilizzo delle opzioni -mk
> >>> Il sito è stato scaricato tutto e tra l'altro i link che della
> >>> pagina che mi interessava non funzionano sebbene i file siano
> >>> presenti e i collegamenti sembrino corretti:
> >>>
> >>> Allora chiedo a chi ha più esperienza di me:
> >>>
> >>> 1) Qualcuno ha utilizzato mai gwget? (a me non salva le preferenze)
> >>> 2) Quale potrebbe essere una possibile causa dei link non
> >>> funzionanti con wget? 3) Come faccio a scaricare SOLO la cartella
> >>> "esempi" senza scaricare tutto il sito?
> >>> 4) Mi è capitato di usare aria2 può scaricare un sito? Qualcuno lo
> >>> conosce? 5)Mi consigliate in caso qualche strumento più da
> >>> ignoranti?  :-)
> >>>
> >>> Chiedo scusa per la pigrizia e per l'imprecisione delle domande ma
> >>> vorrei sentire la vostra esperienza nel frattempo che trovo
> >>> l'occasione di approfondire l'argomento.
> >>>
> >>> Andrea.
> >>>
> >>
> >> non sono molto pratico, e quindi non ci metto la mano sul fuoco, ma
> >> credo che (essendo un sito in php) non sia possibile scaricare le
> >> pagine con i link funzionanti
> >>
> >
> > Vero
> falso, le scarichi in html come se le avessi consultate,(quello che 
> ovviamente non scarichi è la pagina con il codice php)

credo che ci si riferisse ai link funzionanti. Infatti ho provato con
wget e le pagine vengono ovviamente scaricate come html (ovvero il
risultato dell'esecuzione del php). Però i link (href) rimangono a
pagine con estensione .php e per questo non è possibile consultare il
sito offline, se non aprendo le pagine una ad una.

Se però esiste un modo per convertire i link alle pagine offline, ti
prego illuminaci :)


Ivan