Webserver Runterladen
lima-city → Forum → Die eigene Homepage → Internet Allgemein
beispiel
bild
bildergalerie
code
datei
dokument
forum
ftp
http
idee
index
liste
machen
ordner
programm
schutzmechanismen
server
stehen
verzeichnis
zugriff
-
Diskutiere mit und stelle Fragen: Jetzt kostenlos anmelden!
lima-city: Gratis werbefreier Webspace für deine eigene Homepage
-
Per FTP ist das leicht möglich. Da kannst du ganze Verzeichnisse markieren und runteriehen. Am besten verwendest du zum Zugriff Filezilla, das Firefox-Plugin \'FireFTP\' oder wenn es sehr einfach dafür aber etwas langsamer sein darf den IE.
Einen FTP-Zugriff kannst du dir bei den Auktionen ersteigern.
MfG
sebigisler -
Ich glaube nicht, dass er seinen eigenen Webspace gemeint hat ;)
Er meint wahrscheinlich eher Pages mit Wallpaper oder zumindest etwas in der Art. -
Genau, ich meine nicht meine eigene Website
Beispiel: Wallpaper
Auf einem Webserver ( nicht meinem ) sind z.B. 200 gute Wallpaper die in verschiedenen Verzeichnissen sind.
Diese möchte ich z.B. Runterladen. -
Das funktioniert nur zu einem gewissen Grad. Es können nur Sachen von einem Webserver geladen werden, die verlinkt sind. Wenn zum Beispiel in der index.html zwei Bilder angezeigt werden a.jpg und b.jpg können diese drei Dateien (die zwei Bilder und die index.html) automatisch runtergeladen werden. Existiert auf dem Webspace noch ein Bild c.jpg dass aber nicht verlinkt ist, so kann es auch nicht automatisch runtergeladen werden, da der Downloader gar nichts davon weiß.
Wenn es dir das reicht, dann probier mal wget (http://de.wikipedia.org/wiki/Wget)
Der Aufruf:
lädt zum Beispiel rekursiv (-r) alle Dateien von www.example.com bis zu einer tiefe von von drei Links (-l3) runter.wget -r -l3 www.example.com
macht das gleiche, nur das Links in html Dateien automatisch so angepasst werden, damit sie auf die lokalen Kopien zeigen und nicht mehr auf die Datei auf dem Webserver.wget -r -l3 --convert-links www.example.com
lädt nur jpg Dateien runter.wget -r -l3 -A.jpg www.example.com
Beitrag geändert: 24.5.2008 18:00:48 von kochmarkus -
genau für dein Problem gibt es ein extrem cooles Programm: HTTrack Website Copier (http://www.httrack.com/) für Linux & windoof
mit dem habe ich schon einige Websiten erfolgreich gespiegelt, ist vor allem für Tutorials sehr nützlich.
lg
Vali -
...das mit dem verlinkt verstehe ich nicht
Heisst das, dass wenn auf dem Server ein Ordner ist, wo 100 Bilder drauf sind nur die runtergeladen werden, die z.B. in der index stehen ?
Nicht unbedingt in der index.html aber irgendwo müssen sie verlinkt sein. Es kann z.B. auch sein, dass die index.html einen Link auf die Seite bildergalerie.html hat und diese Seite die Links auf die Bilder. Wie vielen Seiten gefolgt werden soll legst du mit dem Paramter -l fest. Bei -l3 wird den Links z.b. von index.html über bildergalerie.html nach partybilder.html gefolgt, wenn auf partybilder.html aber noch weitere Links auf sind wird ihnen nicht mehr gefolgt. -
...das mit dem verlinkt verstehe ich nicht
Wir gehen davon aus, dass du einen Webserver meinst, der nicht dir gehört und dass du keine Liste mit allen Dateien auf dem Webserver hast.
Angenommen du willst das Lima-Forum komplett runterladen(wirklich keine gute Idee), dann wirst du dabei die Threads aus dem Mod-Forum nicht runterladen können, weil du die URLs dafür nicht kennst(und weil ein zusätzlicher Schutzmechanismus existiert :P )
Das Programm wget liest alle URLs in einem HTML Dokument aus und lädt diese runter und durchsucht die heruntergeladenen Dateien nach neuen URLs. Wenn dabei eine Datei nicht verlinkt ist, dann weiß wget nichts davon und fordert sie entsprechend auch nicht an. -
...das mit dem verlinkt verstehe ich nicht
Wir gehen davon aus, dass du einen Webserver meinst, der nicht dir gehört und dass du keine Liste mit allen Dateien auf dem Webserver hast.
Angenommen du willst das Lima-Forum komplett runterladen(wirklich keine gute Idee), dann wirst du dabei die Threads aus dem Mod-Forum nicht runterladen können, weil du die URLs dafür nicht kennst(und weil ein zusätzlicher Schutzmechanismus existiert :P )
Das Programm wget liest alle URLs in einem HTML Dokument aus und lädt diese runter und durchsucht die heruntergeladenen Dateien nach neuen URLs. Wenn dabei eine Datei nicht verlinkt ist, dann weiß wget nichts davon und fordert sie entsprechend auch nicht an.
Ich probiere es mal mit dem HTTrack Website Copier.
Ps: Was will ich mit dem Mod-Forum ?
Das ist mir egal was ihr da schreibt ( oder auch nicht ) -
Diskutiere mit und stelle Fragen: Jetzt kostenlos anmelden!
lima-city: Gratis werbefreier Webspace für deine eigene Homepage