[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]
Re: [RiminiLUG-General] scaricamento di alcune sezioni di un sito (wget e altri)
- To: riminilug-general@xxxxxxxxxxxx
- Subject: Re: [RiminiLUG-General] scaricamento di alcune sezioni di un sito (wget e altri)
- From: Ivan Tarozzi <ivan@xxxxxxxxxxxx>
- Date: Thu, 03 Feb 2011 20:35:43 +0100
- Authentication-results: dtc.neutrino1.xteklabs.com; dkim=fail (message has been altered) header.i=@gmail.com; dkim=fail (message has been altered) header.i=itarozzi@xxxxxxxxx
- Delivered-to: battarsa@xxxxxxxxxxxx
- Delivered-to: riminilug.it_riminilug_general@xxxxxxxxxxxxxxxxxxxxxxxxx
- Dkim-signature: v=1; a=rsa-sha1; c=relaxed; d=neutrino1.xteklabs.com; h= sender:subject:from:to:in-reply-to:references:content-type:date :message-id:reply-to:mime-version:content-transfer-encoding; s= postfix; bh=2dtFNVgcfV87KBwliYPogNH0H94=; b=hoEiUE/x0O2H6X1uRK6Z nfq2gE+V7+UcUFq6JRx0InQhrnR47nMZswnw8HmBjvIlfQZZ7ttaELSL0kH//iYu fAmFkkJv8ZlYgKl7XVNNEwRREL+s8vg9YyXI0ghbvJ3KXt9cjILubPDMsLAyucG1 m6UzW4+Ur2cJxrn3SObRPQA=
- Dkim-signature: v=1; a=rsa-sha256; c=relaxed/relaxed; d=gmail.com; s=gamma; h=domainkey-signature:sender:subject:from:to:in-reply-to:references :content-type:date:message-id:mime-version:x-mailer :content-transfer-encoding; bh=i16skkB9zWZYwUstB8JpQ1rOQHvhDtfB+JN732m2nBk=; b=NVk1EC4Rq1QqXGC47guI+rydCHPNY1ObJynJ0PImgSKTAjYt/b6jAuWF6rw314Tqw+ WxZCq+EbW/s970reFeUIZcyGcawP8HI4rHYKbdjclSqXMQJt8MVD/AD6xdoIo0EEdFSy P+DZ+n8TDA/kNjy8N6X1a7NEC2OML6n0PvnS8=
- Domainkey-signature: a=rsa-sha1; c=nofws; d=gmail.com; s=gamma; h=sender:subject:from:to:in-reply-to:references:content-type:date :message-id:mime-version:x-mailer:content-transfer-encoding; b=IqpAWG9cSFqxf+FIdkI224nyJfEi6Xgvw8jOSo68e6A3vWX/dTOesghdMJXiEqifyl hTxJdXZzY2GZ/u3P1m7scbsNrdjkfOQf0t0ZTqEs0p+Raj5sLBvjVpvtVtRrlvBXsnHx /KOq0jJbMldxDCIX+BrevI7sb5lUcdJiS4/DQ=
- In-reply-to: <4D4AFBC8.8010406@riminilug.it>
- References: <AANLkTi=d_NaDaX5WqQduUBcfhnrTcJU6OKXs-ZRTU8aM@mail.gmail.com> <1296754051.3063.3.camel@debian64.home.network> <20110203191350.5bbdf1e2@leila.home> <4D4AFBC8.8010406@riminilug.it>
- Reply-to: riminilug-general@xxxxxxxxxxxx
- Sender: Ivan Tarozzi <itarozzi@xxxxxxxxx>
Il giorno gio, 03/02/2011 alle 20.02 +0100, Roberto Forlani ha scritto:
> Il 03/02/2011 19:13, Marco Zavatta ha scritto:
> > On Thu, 03 Feb 2011 18:27:31 +0100
> > Ivan Tarozzi<ivan@xxxxxxxxxxxx> wrote:
> >
> >> Il giorno gio, 03/02/2011 alle 17.22 +0100, CIACCI ha scritto:
> >>> Salve Lug,
> >>>
> >>> Vorrei scaricare questa pagina
> >>>
> >>> http://www.tissino.it/esempi/pagineweb/
> >>>
> >>> Per poterla consultare off-line.
> >>>
> >>> In passato ho provato httptrack ma non sono riuscito sempre nel mio
> >>> intento e non ho approfondito l'argomento dato
> >>> che non ho avuto più questa esigenza.
> >>>
> >>> Ho provato con gwget ma mi veniva scaricato solo l'index.
> >>> ho provato quindi con wget e da web sono stato consigliato
> >>> all'utilizzo delle opzioni -mk
> >>> Il sito è stato scaricato tutto e tra l'altro i link che della
> >>> pagina che mi interessava non funzionano sebbene i file siano
> >>> presenti e i collegamenti sembrino corretti:
> >>>
> >>> Allora chiedo a chi ha più esperienza di me:
> >>>
> >>> 1) Qualcuno ha utilizzato mai gwget? (a me non salva le preferenze)
> >>> 2) Quale potrebbe essere una possibile causa dei link non
> >>> funzionanti con wget? 3) Come faccio a scaricare SOLO la cartella
> >>> "esempi" senza scaricare tutto il sito?
> >>> 4) Mi è capitato di usare aria2 può scaricare un sito? Qualcuno lo
> >>> conosce? 5)Mi consigliate in caso qualche strumento più da
> >>> ignoranti? :-)
> >>>
> >>> Chiedo scusa per la pigrizia e per l'imprecisione delle domande ma
> >>> vorrei sentire la vostra esperienza nel frattempo che trovo
> >>> l'occasione di approfondire l'argomento.
> >>>
> >>> Andrea.
> >>>
> >>
> >> non sono molto pratico, e quindi non ci metto la mano sul fuoco, ma
> >> credo che (essendo un sito in php) non sia possibile scaricare le
> >> pagine con i link funzionanti
> >>
> >
> > Vero
> falso, le scarichi in html come se le avessi consultate,(quello che
> ovviamente non scarichi è la pagina con il codice php)
credo che ci si riferisse ai link funzionanti. Infatti ho provato con
wget e le pagine vengono ovviamente scaricate come html (ovvero il
risultato dell'esecuzione del php). Però i link (href) rimangono a
pagine con estensione .php e per questo non è possibile consultare il
sito offline, se non aprendo le pagine una ad una.
Se però esiste un modo per convertire i link alle pagine offline, ti
prego illuminaci :)
Ivan