Vinnaren i pepparkakshustävlingen!
2017-11-14, 20:12
  #1
Medlem
Mia-Rovys avatar
Jag vill kort och gott göra en backup. Det är dags nu.

Men då vill jag göra det på riktigt. Jag vill vara säker även om det blir ett vulkanutbrott. Så jag kan inte samla alla ägg i en korg. Jag kan alltså inte ha min backup hemma. För om lavan tar min dator så tar den även backupen.

Så jag vill ha min backup i det där molnet, eller internet som det även kallades förr i tiden.

Men jag vill ju inte att någon med fysisk tillgång till servern ska kunna läsa alla mina recept. Så det måste vara krypterat. Men det räcker inte. Även om det är krypterat så kan någon filur bruteforca i 49 år (Om inte kvantdatorerna blir poppis inom 5).

Så om jag delar upp den krypterade datan så kommer filurjäveln inte kunna bruteforca, för då har filuren inte ens tillgång till all den nödvändiga datan som krävs för att dekryptera även om han snor servern.

Jag övervägde att programmera ett eget. Mig själv kan jag ofta lita på. Men så läste jag att det var svårt. Mycket, mycket, mycket svårt enligt folket där ute.

Så min primära fråga blir då – Känner du till något säkert distruberat filsystem? Vilket är det säkraste distribuerade filsystemet och varför?

Jag Googlade i 5 minuter och tyckte att https://infinit.sh/ lät fantastiskt. Men det är tydligen inte open source ännu, så då går det direkt bort eftersom ingen utomstående kan granska systemets säkerhet.


Finns det några invändningar kring mina resonemang om backup-säkerhet?

__________________
Senast redigerad av Mia-Rovy 2017-11-14 kl. 20:22.
Citera
2017-11-14, 23:28
  #2
Medlem
Citat:
Ursprungligen postat av Mia-Rovy
Jag vill kort och gott göra en backup. Det är dags nu.

Det var på tiden.

Citat:
Men då vill jag göra det på riktigt. Jag vill vara säker även om det blir ett vulkanutbrott. Så jag kan inte samla alla ägg i en korg. Jag kan alltså inte ha min backup hemma. För om lavan tar min dator så tar den även backupen.

Off site-backup där du tar hänsyn till geografiska platser där vulkanutbrott inte är så vanliga är grejen för dig.

Citat:
Så jag vill ha min backup i det där molnet, eller internet som det även kallades förr i tiden.

Molnet innefattar rätt många teknologier och koncept och är inte en synonym för internet.

Citat:
Men jag vill ju inte att någon med fysisk tillgång till servern ska kunna läsa alla mina recept. Så det måste vara krypterat. Men det räcker inte. Även om det är krypterat så kan någon filur bruteforca i 49 år (Om inte kvantdatorerna blir poppis inom 5).
Så om jag delar upp den krypterade datan så kommer filurjäveln inte kunna bruteforca, för då har filuren inte ens tillgång till all den nödvändiga datan som krävs för att dekryptera även om han snor servern.

Om du vill dela upp den krypterade datan så att den blir ofullständig och dekryptering inte kan utföras utan att datat finns i sin helhet lägger du x ägg i y korgar som var för sig agerar single point of failure om du inte har redundans även på äggkorgarna, i vilket fall du måste säkra varje enskild korg med paritetsäggen.

Citat:
Jag övervägde att programmera ett eget. Mig själv kan jag ofta lita på. Men så läste jag att det var svårt. Mycket, mycket, mycket svårt enligt folket där ute.

Så min primära fråga blir då – Känner du till något säkert distruberat filsystem? Vilket är det säkraste distribuerade filsystemet och varför?

Jag Googlade i 5 minuter och tyckte att https://infinit.sh/ lät fantastiskt. Men det är tydligen inte open source ännu, så då går det direkt bort eftersom ingen utomstående kan granska systemets säkerhet.

Finns det några invändningar kring mina resonemang om backup-säkerhet?

Om delar upp frågeställningen till två frågor istället:
a) vilken säkerhet kräver jag för mitt data och
b) hur vill jag att mitt data distribueras

så tror jag du hittar en lösning mycket snabbare än om du försöker hitta något som både bakar ditt bröd, brer dina mackor och äter upp dem åt dig.

Så länge du inte förvarar utpressnings-barnporr på eliten behöver du inte military grade krypteringsalgoritmer på dina backuper.

Att göra backup "på riktigt" handlar mer om att faktiskt göra backuperna och att testa återläsning än att hitta en tuff, 'säker' och distribuerad lösning.
Citera
2017-11-15, 10:04
  #3
Medlem
Kaustis avatar
Citat:
Ursprungligen postat av Mia-Rovy
Så om jag delar upp den krypterade datan så kommer filurjäveln inte kunna bruteforca, för då har filuren inte ens tillgång till all den nödvändiga datan som krävs för att dekryptera även om han snor servern.

Finns det några invändningar kring mina resonemang om backup-säkerhet?

Det problemet du ställs inför är väl att om en av tjänsterna du använder fallerar så är du av med allt ditt data. Så du ökar risken med X gånger (där X är antalet olika tjänster du använder). Tappar du bort inlogget är du körd, blir ett av kontona hackat är du körd, blir ett av kontona avstängt för att du glömt att betala månadsavgiften är du körd.

Annars låter idén du har bra.
Citera
2017-11-15, 11:12
  #4
Medlem
Mia-Rovys avatar
Citat:
Ursprungligen postat av Regentia
Det var på tiden.



Off site-backup där du tar hänsyn till geografiska platser där vulkanutbrott inte är så vanliga är grejen för dig.



Molnet innefattar rätt många teknologier och koncept och är inte en synonym för internet.



Om du vill dela upp den krypterade datan så att den blir ofullständig och dekryptering inte kan utföras utan att datat finns i sin helhet lägger du x ägg i y korgar som var för sig agerar single point of failure om du inte har redundans även på äggkorgarna, i vilket fall du måste säkra varje enskild korg med paritetsäggen.



Om delar upp frågeställningen till två frågor istället:
a) vilken säkerhet kräver jag för mitt data och
b) hur vill jag att mitt data distribueras

så tror jag du hittar en lösning mycket snabbare än om du försöker hitta något som både bakar ditt bröd, brer dina mackor och äter upp dem åt dig.

Så länge du inte förvarar utpressnings-barnporr på eliten behöver du inte military grade krypteringsalgoritmer på dina backuper.

Att göra backup "på riktigt" handlar mer om att faktiskt göra backuperna och att testa återläsning än att hitta en tuff, 'säker' och distribuerad lösning.
Ja, jag tänkte låta det finnas kopior på informationsdelarna för att vara stryktålig mot att en eller flera servrar kan gå ner, utan att någon data förloras.

Ett par av de befintliga lösningarna ska tydligen ha detta. Tyvärr har jag svårt att välja mellan dem, så jag tar tacksamt emot tips. Men kanske kan jag själv försöka mig på en liten granskning av de olika lösningarna och presentera resultatet här, men det lär väl dröja

a) Jag kräver mycket hög säkerhet, dels för att jag är lite av en obotlig perfektionist och dels för att jag vill kunna använda lösningen för att förvara känslig data. Jag vill slippa behöva oroa mig över att ta backup på känslig data. Det är givetvis inte olaglig data (då skulle jag inte ta backup på det) men det är känslig data.

Jag tror inte att jag kan nöja mig med någonting annat än att förvara backupen hos tredjepart/egna servrar som tredjepart har fysisk tillgång till men utan att tredjeparten ska kunna läsa den.

b) Jag vill nog ungefär att:
• Varje nod endast ska ha tillgång till ofullständiga delar (för att förhindra dekryptering)
• Varje del finns hos flera andra noder (för att minska risken för dataförlust)
• Datan som sparas ska vara krypterad på förhand
• Datan som skickar den krypterade datan ska också vara krypterad
• Backupen ska kontinuerligt kunna uppdateras med ny data, utan att en fullständig backup av rubbet ska behöva göras
Citera
2017-11-15, 11:25
  #5
Medlem
Mia-Rovys avatar
Citat:
Ursprungligen postat av Kausti
Det problemet du ställs inför är väl att om en av tjänsterna du använder fallerar så är du av med allt ditt data. Så du ökar risken med X gånger (där X är antalet olika tjänster du använder). Tappar du bort inlogget är du körd, blir ett av kontona hackat är du körd, blir ett av kontona avstängt för att du glömt att betala månadsavgiften är du körd.

Annars låter idén du har bra.
Som nämndes ovan så finns det sätt att minimera riskerna för det. Man kan kort och gott ungefär låta det finnas backup på backupen mellan noderna så att X antal servrar klarar av att gå ner
Citera
2017-11-15, 15:09
  #6
Medlem
Citat:
Ursprungligen postat av Mia-Rovy
Ja, jag tänkte låta det finnas kopior på informationsdelarna för att vara stryktålig mot att en eller flera servrar kan gå ner, utan att någon data förloras.

Ett par av de befintliga lösningarna ska tydligen ha detta. Tyvärr har jag svårt att välja mellan dem, så jag tar tacksamt emot tips. Men kanske kan jag själv försöka mig på en liten granskning av de olika lösningarna och presentera resultatet här, men det lär väl dröja

a) Jag kräver mycket hög säkerhet, dels för att jag är lite av en obotlig perfektionist och dels för att jag vill kunna använda lösningen för att förvara känslig data. Jag vill slippa behöva oroa mig över att ta backup på känslig data. Det är givetvis inte olaglig data (då skulle jag inte ta backup på det) men det är känslig data.

Jag tror inte att jag kan nöja mig med någonting annat än att förvara backupen hos tredjepart/egna servrar som tredjepart har fysisk tillgång till men utan att tredjeparten ska kunna läsa den.

b) Jag vill nog ungefär att:
• Varje nod endast ska ha tillgång till ofullständiga delar (för att förhindra dekryptering)
• Varje del finns hos flera andra noder (för att minska risken för dataförlust)
• Datan som sparas ska vara krypterad på förhand
• Datan som skickar den krypterade datan ska också vara krypterad
• Backupen ska kontinuerligt kunna uppdateras med ny data, utan att en fullständig backup av rubbet ska behöva göras

Jag vet inte vilka hinder du stötte på i dina efterforskningar eller vad folk tycker är mycket svårt med att implementera detta, men jag tänker mig att lite kreativt scriptande, gpg:ande och splittande tillsammans med överföringar över ssh och en lokal databas som håller reda på vad som redan har backuppats och tar hänsyn till det inför varje backuptillfälle borde lösa biffen för dig.
Citera
2017-11-15, 19:46
  #7
Medlem
Mia-Rovys avatar
Citat:
Ursprungligen postat av Regentia
Jag vet inte vilka hinder du stötte på i dina efterforskningar eller vad folk tycker är mycket svårt med att implementera detta, men jag tänker mig att lite kreativt scriptande, gpg:ande och splittande tillsammans med överföringar över ssh och en lokal databas som håller reda på vad som redan har backuppats och tar hänsyn till det inför varje backuptillfälle borde lösa biffen för dig.
Eller hur? Jag tänkte det med.

Jag läste här:
https://www.quora.com/This-morning-I...r-this-project

Där får man läsa skräckinjagande meningar som:
Citat:
To write a production grade DFS, it takes hundreds of contributors and thousands to man hours.
Citat:
you probably should take the MIT 6.824 course.
Citat:
I would suggest following an undergrad / grad distributed systems course /../ While these courses clearly won't make you an expert, they'll definitely help build your understanding of the fundamentals.
Citat:
We don't write complex distributed systems for fun, because we can't.
Citat:
Here comes again my suggestion. Don't do it.
Citat:
As Aditya said, building a DFS from scratch is a huge task even for a team with good developers.

Jag tänker att backuper är ju bra om de lirar som de ska. Så då antar jag att jag vill ha "production grade".


Å andra sidan så kan man även läsa en uppmuntrande kommentar:
Citat:
It isn’t that hard to write a basic distributed file system. You should be able to do it in a few weeks if you are reasonably good.


Nåja, jag kanske ska ta och försöka ändå. Kan ju vara är lärorikt projekt om inte annat


Rent spontant så tänker jag något i den här stilen:
1. Då en ny eller ändrad fil upptäcks, kryptera den. Hasha och spara i någon db. Spara även en krypterad sökväg.
2. Kolla så att hashen inte redan har en backup. Om den har det så typ referera till den istället. Lär spara plats.
3. Leta upp alla funderande servrar. Dela upp filen i lika många delar som det finns servrar.
4. Hasha och spara hasherna i någon db, med referens till den första hashen, även i vilken ordning hashen är i.
5. Skicka varje del, krypterat, till minst X antal servrar.

Känns ju inte som någon raketforskning. Men vem vet, jag kanske missar många saker.
__________________
Senast redigerad av Mia-Rovy 2017-11-15 kl. 20:05.
Citera
2017-11-17, 14:50
  #8
Medlem
Finns ju några varianter på blockkedjan som har decentraliserade distribuerade filsystem.

Exempelvis https://storj.io/

Jag har aldrig testat några av de.
Citera
2017-11-17, 15:48
  #9
Medlem
https://www.privacytools.io/#cloud
Citera
2017-11-17, 18:22
  #10
Medlem
Citat:
Ursprungligen postat av Mia-Rovy
Jag vill kort och gott göra en backup. Det är dags nu.

(...)
Finns det några invändningar kring mina resonemang om backup-säkerhet?

Ja.
Lär dig 3-2-1 regeln.


3, som i tre kopior
2, som i två olika format
1, som i minst en off-site
Citera

Stöd Flashback

Flashback finansieras genom donationer från våra medlemmar och besökare. Det är med hjälp av dig vi kan fortsätta erbjuda en fri samhällsdebatt. Tack för ditt stöd!

Stöd Flashback