Söker tips på mer specifik backuplösning, smått avancerad

Permalänk
Medlem

Söker tips på mer specifik backuplösning, smått avancerad

Försöker uppdatera min backup-rutin, eftersom jag upptäckt att nuvarande rutin orsakar en del oförutsedda problem. Skulle vilja ventilera bästa alternativ, och en del svårlösta detaljer (som jag upplever det).

Hittills har jag kört backup 1-2 ggr i veckan, så enkelt och rakt som möjligt, dvs ren synkning mot backupen. Backup-programmet jämför nuvarande innehåll mellan lokala diskarna och backupen, och synkar enbart det som förändrats sen senaste backupen. Det material som för närvarande finns på backupen ersätts då helt av det som backas upp, och material som raderats från disken raderas då också från backupen. Ren synkning m.a.o. utan versionshantering.

Ett numera uppenbart problem är att alla eventuella fel som kan finnas på materialet på disken, kopieras då till backupen och skriver över dom ’original’ som man ju vill kunna hämta hem för att återställa med, när man eventuellt hittar fel, som korrumperade filer eller annat BS. Korkat av mig, kan tyckas, men jag är nog inte bättre än att jag tagit det på allvar förrän nu.

Om jag istället backar upp mer sällan, så minskar ju risken för det här problemet, men samtidigt riskerar jag då förlora desto mer data och arbete som jag utfört sen senaste backup, om t.ex. datorn skulle kapas av ransomware eller annat.

Felande filer, som jag upptäckte i ny form nyligen, är så kallad fil-röta. Dvs filer som av någon lagrings-anledning blir oläsbara, kanske pga SSDs lagringsmetod, och filerna blir då mer eller mindre bara digitalt mos. Men filen bibehåller ändå nästan identisk storlek och ger inga direkt uppenbara intryck av att vara felande, förrän man försöker öppna/använda den.

Av olika anledningar har sådana röt-filer även flaggats som förändrade, av Windows, i form av att ”Archive” biten aktiverats, så filen tags med vid backup, trots att jag inte öppnat eller förändrat den sen mycket länge. Jag gissar att Windows indexering- eller annan process upptäckt att filen på något sätt är annorlunda än tidigare och själv kryssat i flaggan ”Archive”.
Samma sak kan hända även mekaniska diskar, att disken börjar balla ur lite, några kluster och shit blir halvt otillgängliga eller oläsbara och då kan filerna också bli helt eller halvt obrukbara. Sånt vill man gärna undvika att backa upp.

Mitt sätt att använda data är i viss form också "progressivt". Dvs jag programmerar lite och gör script och customiserar inställningsfiler för program och tillägg. Jag kör sen dessa funktioner ett tag, och sen lägger jag till ytterligare funktioner eller förändringar. Ibland händer det att den förändring jag gjort blev sämre än innan, och då vill jag gärna backa upp till tidigare version, ibland långt tidigare version, flera månader rentav. Vill liksom aldrig återgå helt till ”default”. (börjar nästan låta som Linux vore nästa anhalt för mig )

Jag tror inkrementell backup skulle vara en god idé för mig, även om jag har bara en 10tb disk som jag backar upp emot, så utrymme för inkrementellt är i mindre mån begränsat. Hela systemets totala datastorlek är ca 2gb (inkluderar precis alla filer). Samt att jag kör en mindre säkerhetsbackup online. Men i huvudsak är det en USB-disk på 10gb, som alltid kopplas ur direkt efter backup. Tanken bakom extern disk är att förvara backupen separat från datorn, skydd mot stöld, brand, elektriskt överslag m.m. Vet inte om det finns backupsystem med s.k. ”versioning”, alltså flera versioner av samma fil, som kan kombineras med inkrementell backup?

Men hur kan man undvika att så kallade rötiga filer undviks att backas upp? I ovan nämnda exempel så tror jag att dom rötade filerna rötades för många månader sedan. Kör man inkrementell backup så måste man ju förr eller senare göra en full backup igen, för att inte hamna ’för lång bakom’. Och känns inte praktiskt att behöva gå igenom hundratals, kanske över tusen viktiga filer, en efter en, manuellt, före varje full backup, för att verkligen säkerställa att dom är fungerande. Det kan ju ta dagar i sig. Många backuplösningar inkluderar inte heller kontroll via checksummor.

Alltså backup som inkluderar inkrementell/differentiell, eventuellt i kombination med någon slags versioning. Hur kan man tänka där?
Sen en lösningen på hur man undviker/avslöjar att där finns rötade filer som kan backas upp, utan att behöva gå igenom alla filerna manuellt?
Sen någon slags automatisk verifieringskontroll av filintegritet på backup visavi originaldisk vore ju ett plus.
Och slutligen för ett system på ca 2gb totalt, hur länge räcker en 10gb disk då, om man kör inkrementell/differentiell backup? Generellt talat.

Tackar för all form av input, lång som kort.

Permalänk
Medlem

Om det du vill ha backup på kan delas över nätverket och du kan sätta upp en Linux dator så skulle jag rekommendera borg backup
https://www.borgbackup.org/

Gör deduplication, du kan ta backup så ofta du vill. Den sparar bara ändringar men kan även gå tillbaka bland ändringarna.
Finns även funktioner för att enbart spara x antal filer per vecka, månad, år...
Så kan ta ta backup en gång om dagen, eller en gång i timmen, spelar ingen roll.