Här har ni något jag skrev ihop...
För er som inte ser vad det är:
Det är ett shell-script som funkar i bash... Scriptet tankar ner varenda jävla bild från sidan. (just nu handlar det om ca 90.000 bilder)
Kod:
#!/bin/bash
for i in `seq 1 7303`
do
echo "Page $i of 7303..."
wget -q "http://www.imgshare.net/?a=showtop100&page=$i"
for o in `seq 2 12`
do
OLL="$(echo "$(grep showimage "index.html?a=showtop100&page=$i" | cut -d "\"" -f 2)")"
wget -q "http://www.imgshare.net/?$(echo $OLL | cut -d "?" -f $o)"
URL="$(grep "$(echo $OLL | cut -d "?" -f $o | cut -d "=" -f 3)" "index.html?$(echo $OLL | cut -d "?" -f $o)" | grep ord | cut -d "\"" -f 2)"
wget -nv --referer="http://www.imgshare.net/?$(echo $OLL | cut -d "?" -f $o)" "$(echo "$URL" | cut -c -$[$(echo "$URL" | wc -c)-2])"
done
wget -q "http://www.imgshare.net/?$(echo $OLL | cut -d "?" -f 13)"
wget -nv --referer="http://www.imgshare.net/?$(echo $OLL | cut -d "?" -f 13)" "$(grep "$(echo $OLL | cut -d "?" -f 13 | cut -d "=" -f 3)" "index.html?$(echo $OLL | cut -d "?" -f 13)" | grep ord | cut -d "\"" -f 2)"
rm *.html*
mv *.* 00bilder/
done
En efterbehandling på det här sen för att iallafall få någon form utav filstruktur... Får se om det orkas.
EDIT: Fixade scriptet... Bör funka 100% nu