2005-11-24, 19:14
  #1
Medlem
Hejsan

Jag undrar om det är möjligt att ladda ner en hel domän. Till exempel, låt säga att jag vill ladda ner hela www.sex.com. Dvs, alla underlänkar, alla bilder, allt.


Anledningen till att jag vill göra detta är att jagvill ladda ner en sida om falungong till en vän i kina, då sådant material är helt censurerat där och näst intill omöjligt att få tag på.

Någon som vet något program ?
Citera
2005-11-24, 19:17
  #2
Medlem
pekmezs avatar
http://www.download.com/3120-20_4-0....&search=+Go%21

Kolla igenom dessa.
Citera
2005-11-25, 22:38
  #3
Medlem
Jag vet inte om det finns kvar, men testa att leta efter SurfOffline...
Citera
2005-11-26, 11:22
  #4
Medlem
Kryptografens avatar
Jag rekommenderar Httrack:
http://www.httrack.com/

/Kryptografen
Citera
2005-11-28, 14:31
  #5
Medlem
TuXIs avatar
Intellitamper - http://www.intellitamper.com/

Eller SPiderZilla - http://spiderzilla.mozdev.org/
Citera
2005-11-29, 23:03
  #6
Medlem
xdrs avatar
wget -R adress
Citera
2005-12-01, 20:44
  #7
Medlem
Broder Tutas avatar
wget

Citat:
Ursprungligen postat av xdr
wget -R adress

...eller för att göra speglingen läsbar off-line, gardera för om sajten är IE-anpassad eller använder kakor; gör en liten shell-wrapper:

Spara nedanstående som till exempel WGET och sätt x-flaggan med chmod.

Kod:
#!/bin/sh
wget --force-html --force-directories --cookies=on --recursive \
     --retr-symlinks --level=10 --convert-links  --page-requisites \
     --html-extension --non-verbose \
     --user-agent="Mozilla/5.0 (compatible;MSIE 5.0)" $*

Kör sedan wrappern med önskad domän som parameter:

Kod:
WGET http://www.sex.com/
Citera

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in