Citat:
Gjorde en snabbkoll men de hårddiskar som eventuellt bara har USB 2.0 verkar vara mycket få till antalet numera. De är kända för att kontakten (mini-USB) är dålig och lätt går sönder. Den har inte tillräckligt "djup" så att den fäster säkert. Det är lite ungefär som CAT5/CAT6 nätverkskablar att kontakten var inte ursprungligen designad för att tas in och ur 1000-tals gånger, utan det förväntades att den skulle sitta i när den väl satt där. Därför är plastflärpen/fjädern så klen och går lätt sönder.Man kan enkelt se detta tex på gammal nätverkskod på äldre nätverkskort att de bara kunde bilda en anslutning i början av starten. Man kunde inte koppla i och ur nätverskablage medans maskinen var igång, ja man kunde ju men då förlorades ju också kontakten maskinerna emellan.
Citat:
Alla sk (Moln-)Cloud-tjänster har också begränsningar i överföringshastighet som begränsas av din Internet-uppkoppling men också i de flaskhalsar som finns på vägen dit och tillbaka. Har du bara en 1 MBit per sekund i overall performance hastighet så betyder det strax under 100 kbyte/sek, eller 0,1 MByte/sek. Resten går bort i sk overhead, transportkostnad.Men va? Vitsen med en extern disk är väl att du skall ha din data på två platser? Dels på din dator, sen en säkerhetskopia på den externa disken. Menar du att du vill ha en hårddisk som sparar dina filer virtuellt? Varför ens ha en hårddisk då? Gå direkt på Onedrive eller dylikt istället.
En molntjänst prestanda beror också på om hur många klienter som för närvarande använder Cloud-tjänsten. Något som inte riktigt går att förutse i förväg.
Nu vet man ju att variationen över dygnets timmar är stora. Tex på natten i Europa så har Japans och Kinas kontor precis öppnat, och påloggningen på många molntjänster sker samtidigt.
Det gör att konton och filer som används ofta och mycket också har kortare svarstid, medans sällan efterfrågade filer tar en stund att hämta fram.
Det har ju också blivit allt svårare för Cloud-tjänsterna att beräkna sina driftskostnader, pga att volymerna blir så mycket större allt eftersom tiden går.
Förr så sparades mycket data på magnetband, men det kunde därför dröja några dygn innan man kunde hämta ner filen då. Om en 50-100 år så går väl hela Jordens plastproduktion åt att göra magnetband att spara all data på ?
Sen är det bara att såga ner all skog och göra papper av den och skriva ut det som får plats på pappret.
Sen när hela Jordens massa är omvandlad till SSD-diskar så är informationsinsamlandet slut, och vi står inför en informationssamhällets singularitet ?
Citat:
Den loggade ju 119 MB/sek vilket får sägas vara helt okej för en mekanisk disk.I och för sig så finns det ju nog snabbare diskar än så men det kan behövas gå upp en storlek, dvs 3,5 tum.
Eller SSD
Fast ett problem med att mäta överföringshastigheten är i fall att du med Windows ska överföra ett stort antal småfiler, att skrivhastigheten blir i lägsta laget.
Detta beror egentligen på långsamheten på filsystemet som sådant, dvs NTFS källkod.
Windows föreskriver nämligen att filen skapas, öppnas och stängs, innan en ny fil kan påbörjas.
Windows måste alltså vänta tills skrivningen av den första har avslutats och filen stängts och att den finns på den magnetiska skivan.
Det betyder alltså att diskens buffert i stort sett är nästan tom, eller full hela tiden, vilket nu man vill se det som.
Om man måste komma högre i hastighet så måste man välja SSD-diskar eller mekaniska diskar i RAID, dvs typ 10 diskar i RAID borde komma upp i 800-900 MB/sek.
Fast jag har inte sett så bra lösningar med 10 USB 3 diskar ännu.
En RAID-kontroller kan nämligen hålla koll på vilka skrivningar som har slutförts genom en batteribackup i kontrollerkortets buffertminne. Dvs även om det blir strömavbrott till diskarna så kan kontrollerkortet "komma ihåg" vilka skrivningar som är ofullständiga. Det finns utöver detta ytterligare kontrollmekanismer i kritiska system att filen som skrivits återläses och kontrolleras mot tex en checksumma.
Fast brinner kontrollerkortet upp så är det förlorat ändå, och man måste återkontrollera RAIDens integritet.
Fast ids inte kolla igenom allt som skrivs i området, eftersom det har blivit så diversifierat beroende på I/O-kraven som ställs. Och det särskilt för de servrar som måste lämna ut streams med en garanterad hastighet. Därför är de oftast perfekt optimerade för läsning, men inte massiva skrivoperationer precis.
Det är typ lättare att optimera för läsning än skrivning.
En USB 2.0/3.0 blir aldrig snabbare än sin långsammaste flaskhals.
Det finns en beklaglig nackdel med SSD-diskar som sällan nämns och det är nämligen att om den kraschar helt, all data är i regel förlorade på den disken. På en magnetisk disk däremot så finns det möjlighet att återvinna dessa data, hos tex IBAS i Norge eller tex Ahlberg Data i Nacka.
Men det brukar kosta, därför att disken måste tas isär och manipuleras under ett mikroskop i ett sk dammfritt renrum.
Så dina värdefulla data bör sparas på minst en magnetisk disk. Eller att man bränner ut på CD/DVD/BluRay. Eller förstås en bandenhet. Bästa backupen är egentligen den att ha ett bra ordningssinne. Det är bättre än alla tekniska lösningar.