ABSTRACT: wget zum downloaden von webinhalten wird vorgestellt AUDIENCE: beginners SYSTEM: any unix SECTION: basic unix commands AUTHOR: mond COPYRIGHT: GNU Free Documentation Licence http://www.gnu.org/licenses/fdl.txt heute einen kleinen einfachen nuetzlichen befehl: wget wget steht fuer "www get" und dient zum herunterladen von files aus dem web: wget http://ars.userfriendly.org/cartoons/?id=20000213 laedt dir z.b. das ein bild aus dem web (bilder von der kommandline anschaun geht z.b.: mit dem programm xli oder xv und als argument das bild das du sehen willst) wget http://mond.at laedt dir die startseite der mondbasis. du kannstst auch ftp url angeben: z.b: wget ftp://ftp.at.debian.org/debian/doc/FAQ/debian-faq.txt.gz wenn du hinter einer firewall sitzt ist es eventuell notwendig den switch: wget --passive-ftp ftp://.... anzugeben also ueberall wo man nur eine url bekommt wo man sich was herunterladen kann und nicht extra einen webbrowser starten will ist wget recht praktisch. wget kann auch ganze websites rekursiv kopieren. das koennen natuerlich sehr viele daten sein. z.b.: wget -r http://irgend.wo.at/irgenwas/ laed alles aus diesem verzeichniss und allen unterverzeichnissen.. das ergebniss wird in einem neu angelten unterverzeichniss lokal abgespeichert das den namen des hosts bekommt (hier z.b. irgend.wo.at ) EXERCISES: verwende das wget kommando um dir eine kopie einer kleinen website zu machen. REFERENCES: man wget wget --help