[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

Re: [RiminiLUG-General] scaricamento di alcune sezioni di un sito (wget e altri)



Il 03/02/2011 20:35, Ivan Tarozzi ha scritto:
Il giorno gio, 03/02/2011 alle 20.02 +0100, Roberto Forlani ha scritto:
Il 03/02/2011 19:13, Marco Zavatta ha scritto:
On Thu, 03 Feb 2011 18:27:31 +0100
Ivan Tarozzi<ivan@xxxxxxxxxxxx>   wrote:

Il giorno gio, 03/02/2011 alle 17.22 +0100, CIACCI ha scritto:
Salve Lug,

Vorrei scaricare questa pagina

http://www.tissino.it/esempi/pagineweb/

Per poterla consultare off-line.

In passato ho provato httptrack ma non sono riuscito sempre nel mio
intento e non ho approfondito l'argomento dato
che non ho avuto più questa esigenza.

Ho provato con gwget ma mi veniva scaricato solo l'index.
ho provato quindi con wget e da web sono stato consigliato
all'utilizzo delle opzioni -mk
Il sito è stato scaricato tutto e tra l'altro i link che della
pagina che mi interessava non funzionano sebbene i file siano
presenti e i collegamenti sembrino corretti:

Allora chiedo a chi ha più esperienza di me:

1) Qualcuno ha utilizzato mai gwget? (a me non salva le preferenze)
2) Quale potrebbe essere una possibile causa dei link non
funzionanti con wget? 3) Come faccio a scaricare SOLO la cartella
"esempi" senza scaricare tutto il sito?
4) Mi è capitato di usare aria2 può scaricare un sito? Qualcuno lo
conosce? 5)Mi consigliate in caso qualche strumento più da
ignoranti?  :-)

Chiedo scusa per la pigrizia e per l'imprecisione delle domande ma
vorrei sentire la vostra esperienza nel frattempo che trovo
l'occasione di approfondire l'argomento.

Andrea.

non sono molto pratico, e quindi non ci metto la mano sul fuoco, ma
credo che (essendo un sito in php) non sia possibile scaricare le
pagine con i link funzionanti

Vero
falso, le scarichi in html come se le avessi consultate,(quello che
ovviamente non scarichi è la pagina con il codice php)
credo che ci si riferisse ai link funzionanti. Infatti ho provato con
wget e le pagine vengono ovviamente scaricate come html (ovvero il
risultato dell'esecuzione del php). Però i link (href) rimangono a
pagine con estensione .php e per questo non è possibile consultare il
sito offline, se non aprendo le pagine una ad una.

Se però esiste un modo per convertire i link alle pagine offline, ti
prego illuminaci :)


Ivan
Dipende dal livello di profondità che dai allo scaricamento fino a quando il programma scarica converte le pagine con i relativi link in html. Io uso ScrapBook che è un estensione per Firefox molto comoda, wget non lo conosco abbastanza per operazioni oltre l'ordinario.

Roberto

--
"E' inutil che t'encassi tant el mond en è al tua - Zio Berto"