Om du vill göra det automatiserat så gör du det på en node-server som hämtar url:en genom fetch och sedan installerar du ett package för att simulera DOM (t.ex JsDom) för att sedan injecta html koden där. Det du gör sen är att skriva selectors mot DOM api för att hämta det du behöver. Så gör jag för att scrapa webbsidor det kan handla om att hämta listor för att sedan lägga i min egna databas eller t.ex schemalägga ett script för att se om någon data har ändrats (varför inte få ett mail direkt det kommit upp något på bostadsförmedlingen exempelvis )
Om html koden innehåller interna länkar så kan man köra en global regex replace för det. Då ska det iallafall i teorin även stödja hemsidans javascript men jag vet inte hur det är med XSS och sådant har inte riktigt koll på det.
__________________
Senast redigerad av edm4life 2017-08-08 kl. 00:56.
Flashback finansieras genom donationer från våra medlemmar och besökare. Det är med hjälp av dig vi kan fortsätta erbjuda en fri samhällsdebatt. Tack för ditt stöd!
Stöd Flashback
Swish: 123 536 99 96Bankgiro: 211-4106
Stöd Flashback
Flashback finansieras genom donationer från våra medlemmar och besökare. Det är med hjälp av dig vi kan fortsätta erbjuda en fri samhällsdebatt. Tack för ditt stöd!