Nej, de flesta skanningsprogram som letar upp raderade filer hittar inte alltid rätt filnamn, utan dem får namn på typen fil0001.* osv. Detta bberror på att själva raderingsmekanismen tar i flesta fall bort kopplingen till det ursprungliga filnamnet.
Många skanningsprogram letar efter sk signaturer, dvs hur en fil börjar, - Alltså vilken inledande sk metadata som talar om vad det är för typ av fil. Dvs om det är pdf, doc elr jpg osv. Metadatat ligger ibörjan av filen.
När det gäller ljudfiler så är dessa ofta stora liksom filmfiler och man kan inte alltid rädda hela filen, utan tex slutet kan ha gått förlorat.
En annan aspekt av att återskapa raderade filer är att ursprungsmappens namn ofta inte kan återskapas, De filer man hittar vid skanning har ofta förlorat sin koppling till sin hemma mapp.
Det gör det svårt att hitta det man letar efter, efsom mycket av det som faktiskt hittas är mumbo-jumbo skräp, (tex borttagna dll -filer, temp-filer, gud vet vad)
Lättast är att veta om något mönster som finns inne i filen, att man tex kan leta efetr mönstret, ett gammalt prgm för det är det sk grep (Turbo grep, Borland), flera varianter finns bla i Linux.
Textfiler är lätta att söka efter, pga att manvet att det mest är bara bokstäver i dem. Annat är det med ljud- o film-filer som innehåller mycket binär data, och att leta efter mönster där är mkt svårt.
På såna där ställen som Elgiganten så sparar man ju sällan den spegel backup man gjorde, utan spegel-disken används iigen för att serva nästa kund.
Har man råkat ut för en sån där svår krash, så är det bättre att köpa sej en helt ny hårddisk o stoppa in den istället och ladda in systemet i. Och sen hämta de filer man behöver ifrån den gamla. Ominstallerar man på ett krashat system kanman riskera att permanent förlora filer (ingen garanti att de inte skrivs över).
En annan faktor i dataräddningsverksamheten är det blir snabbt mkt kostsamt att leta o återskapa filer, och ibland blir det mycket manuellt sorterings-arbete. Oftast så sparas ju hela Internet-cachen på hårddisken, men den består av otaliga, kanske 1000-tals småfiler, tex cookies, banner-jpgs osv
och gör det långsamt och träligt att gå igenom sådant material. I princip går de inte att skilja på såna eller vikitigare filer, vilket gör sådant arbete mkt tidsödande.
Teoretiskt är sådant filräddande intressant och försök har gjorts att skapa filsystem som har den egenskapen att raderade filer ska vara lätta att hitta, men det stupar ju på att den databas sm ska hålla reda på det, efterhand som disken blir äldre, - blir allt svsårare att hålla ordning i. Tex defragmentering av disken är då en mkt mer komplicerad uppgift efsom den ska kunna relokera en raderad fil helt korrekt, cluster efter cluster. Och dessutom kunna korrekt defragmetera de "icke-raderade" filerna.
En sådan design av ett typiskt filsystem (exempel) med möjlighet att återskapa raderade filer hade dock en liten men betydlesfull nackdel, en sk offer-area, där allt som behövde skyfflas omkring hamnade, dvs som en swapfil ungefär.
PÅ sikt tror jag att de nya SSD-diskarna kommer att bli svårare attt skanna efter raderade filer (och rädda dem) , pga att SSDn i teorin inte alls behöver skriva filer sekventiellt som är det normala på mekaniska diskar. SSDn kan alltså i princip tillåta hur stor fragmentering som helst, dvs 100 %.
Det sekventiella skrivandet av filer hos mekaniska diskar är det som gör fil-letandet betydligt enklare i de flesta fall.