Miten voin ladata koko Web-sivuston?
Et halua vain artikkelia tai yksittäistä kuvaa, haluat koko verkkosivusto. Mikä on helpoin tapa sifoauttaa kaikki?
Nykypäivän Kysymys- ja vastaus -istunto tulee meille suotuisasti SuperUserin - Stack Exchange -alueen, yhteisöpohjaisen Q & A-sivustojen ryhmittymän - kautta..
Kuva saatavilla taustakuvana GoodFonissa.
Kysymys
SuperUser-lukija Joella on yksinkertainen pyyntö:
Miten voin ladata kaikki sivut verkkosivustolta?
Mikä tahansa foorumi on hieno.
Jokainen sivu, ei poikkeus. Joe on lähetystyössä.
Vastaus
SuperUserin avustaja Axxmasterr tarjoaa sovellussuosituksen:
http://www.httrack.com/
HTTRACK toimii kuin mestari koko sivuston sisällön kopioimiseksi. Tämä työkalu voi jopa tarttua siihen osaan, joka tarvitaan, jotta verkkosivusto, jossa on aktiivinen koodisisältö, toimii offline-tilassa. Olen hämmästynyt siitä, mitä se voi kopioida offline-tilassa.
Tämä ohjelma tekee kaiken mitä tarvitset.
Onnellinen metsästys!
Voimme syvästi sanoa HTTRACK. Se on kypsä sovellus, joka saa työn. Entä arkistoja muilla kuin Windows-alustoilla? Toinen avustaja Jonik ehdottaa uutta kypsiä ja tehokkaita työkaluja:
Wget on klassinen komentorivityökalu tällaiseen tehtävään. Se sisältää useimmat Unix / Linux-järjestelmät, ja voit saada sen myös Windowsille (uudempi 1.13.4 saatavana täältä).
Teet jotain sellaista:
wget -r --no-vanhempi http://site.com/songs/
Katso lisätietoja kohdasta Wget Manual ja sen esimerkit tai tutustu seuraaviin:
- http://linuxreviews.org/quicktips/wget/
- http://www.krazyworks.com/?p=591
Onko jotain lisättävää selitykseen? Ääni pois kommenteista. Haluatko lukea lisää vastauksia muilta tech-savvy Stack Exchange -käyttäjiltä? Tutustu koko keskusteluketjuun täällä.