Bambam
Back up HDD
Visa signatur
Om du har andra datorer hemma i ett nätverk som behöver komma åt en extern lagringsyta så är ju NAS ett bra alternativ. Den kan du ha på hela tiden och är då nåbar från alla datorer.
Om du endast har en dator som du vill ta backup på, så kan du med fördel köpa en extern disk som du ansluter med USB. Om inte annat så för att hålla nere priset och komplexiteten.
Du behöver sedan lämpligen ett litet program där du kan ställa in vilka sökvägar med filer och kataloger som ska kopieras över till din externa disk.
Citera flera
Citera
Beror på vad du vill göra.
En fördel med NAS är att det är en helt separat burk, oftast via ett LAN som du kan lagra filer på etc. Men det kostar att köpa en sådan enhet och har du verkligen inte behov av detta är det förmodligen bättre med t.ex. en USB hårddisk du ansluter till datorn. Det finns därefter program man kan göra som kan ta backup åt dig, hålla koll på filer etc. eller så kan du göra det själv. Har man ordning på kataloger, filer och sparar data enligt en strategi med syfte på möjlighet att ta backup så blir det enkelt att kopiera till en extern hårddisk utan några speciella program.
Jag rekommenderar en större mekanisk 2.5 hårddisk som ansluts via USB3, det finns USB-C kabinett samt helt färdiga diskar i kabinett men USB3 finns det större utbud av. Det är också fördelaktigt att ha ordentligt med utrymme i den dator man använder för att på de sättet inte behöva ta backup hela tiden om det är en dator som bara finns i bostaden. Det räcker nog att ta backup vart tredje månad. Det går också att ta inkrementell backup, vilket innebär att man kopiera ut saker som ändrats eller det som tillkommit sist man tog en backup.
Citera flera
Citera
En 'backup' innebär också att disken som filerna lagras i är för det mesta urkopplad och undanlagd, är den alltid inkopplad så är det en extra lagringsyta och också utsatt om du får in en ransomware i din klientdator.
En del externa USB-diskar så följer det ofta med en (demo) av backupprogram utan att säga att det är demo (typiskt 30 dagar) och de är oftast inte bra då de tar bara de filerna som de tycker är lämpliga - inte vilka filer du tycker är viktiga - som 50 kBytes config/systemfilen någonstans djup i filsystemet och kostar 1 veckas arbetstid att återställa om den förloras... det är inte de filer man tror är viktiga som man verkligen behöver den dagen när det krisar - därför bör man ta 'allt' i sin backup om möjligt...
Backupper bör hanteras enligt 3-2-1-filosofi - filen finns alltid i minst 3 exemplar, på minst 2 oberoende media (utanför datorn som arbetar med filen) och 1 helst utanför platsen man jobbar med dessa.
En ransomware-säker lagring går knappt att göra med bara en inkopplad lokal disk då om du som användare kommer åt filerna, så gör ransomware det också - i ditt namn eller som administrator...
Skall man försvåra att ransomware 'tar allt' så bör backuppen lägga och administreras genom en NAS och/eller läggas på en molntjänst (egen driven eller köpt lagringstjänst) - i NAS och en del molntjänster kan man sätta dold backgrunds-backup/snapashot (read-only) så att anslutande klientdator inte kan ta bort eller skriva över filer hur mycket den än försöker (som ransoware)
Köper man molntjänster skall man kolla villkoren för versions-hantering av filer (dvs. att den gamla versionen finns kvar ett tag fast det skrevs över med ny fil i samma namn) och retension - Blackblaze PC-backupprodukt har minst 30 dagarars retension och för liten summa till upp till 1 år - använder man B2/S3-molnlagringsprotokoll så kan man själv sätta retension-tiden - men får förstås betala för all utrymme som de olika varianterna av filerna tar i plats tills deras 'bäst före' datum går ut och försvinner för alltid.
---
När det gäller backupprogram fins det massor av att välja på - både fria och betalprogram och också vilken typ av backupper som man tänker göra. Vill man ha återställbara diskimage-backupp på hela datorns diskar så kan man tex. titta på macrium reflect, med schemalagd backup liksom manuellt initierad
mappkopiering är den enklaste versionen men inte så säker då en oönskad version av en fil är snart är synkad till backuppen också och den friska filen är borta - speciellt om det är satt som en automatisk schemalagd process backupdisken alltid inkopplad (och då är ingen backup...) program som kan göra synkningar är i MS robocopy (CLI-program - vet inte om det fins grafisk GUI på dessa) och i Linuxvärlden är 'rsync' den stora arbetshästen.
sedan har man arkiverande backupper dvs inget du kan bläddra runt med din file-explorer utan måste använda programmet själv för att finna ut vilken dag det är och vilka filer du vill återskapa från backuppen och sedan köra för att få fram just den versionen av filerna.
Senare års backupprogram gör sina repositorier med packad data och en del av dem gör också deduplicering så att samma data inte lagras gång på gång på gång i egna upplagor - då det tar upp diskplats.
Många (fortfarande...) betal-backuppmjukvaror är 'traditionella' dvs. först gör en huvudbackup och sedan på det inkrement eller diff-backupp i sessioner (inklusive macrium reflect på diskimages) - problemet med dessa att efter typ 20-30 backupper måste man göra en ny huvudbackup och det tar dubbla diskutrymmet då du inte kan ta bort den gamla innan bestämda antalet dagar har rullat ut (för mig minst 90 dagar - vilket innebar 3 fulla huvudbackupper (1 per månad) + den omgången man bygger på för den 4'-månaden då antalet backupper får inte bli mindre än 90 dagar gamla - och varför upptäcker man den dagen att detta inte är bra är när man skall göra restore på en backup med 29 inkrement efter huvudbackuppen då huvudbackuppen först skall packas upp och därefter alla inkrement skall modifiera filträdet gång på gång (vilket kan ta timmar och dagar om det är stora mängder) och konceptet är ohållbar i längden med hela 4 uppsättningar av datat man vill göra backup på - Har man 'bara' 30 dagars-krav blir det inte full lika mycket med en full uppsättning + den man bygger på.
En sak som dessa traditionella backupprogram inte hanterar bra alls är när folk flyttar tex. sin fotomapp från en ställe i filträdet till annan ställe i filträdet - och då blir inkrementet lika stor som alla filerna man flyttade på då de flesta backupprogrammen inte känner att filer har flyttats - bara att filer försvann i en mapp och dök upp i en annan mapp utan att inse att det är samma filer - även på dyra backupphanteringssviter...
Det som är skänk från ovan är nedanstående:
Deduplicerande backupprogram som duplicati, dupliacy, borgbackup, restic (de 2 sistnämnda dock bara linux i nuläget) och några till program (varav de flesta är open source) gör man huvudbackup en gång och sedan kör man på löpande då det är deduplicerande och använder lagring baserad på chunk med små filbitar i, alla hashade och hanteras i databas vika bitar som hör ihop och identifierar dubbletter så att samma data inte skrivs 2 gånger oavsett antal sessioner och man kan ta bort lagringssessioner i vilken ordning man vill utan någon koppling till före och efter sessionen och backupprogrammet tar bort data ur chunken i repositoriet som inte längre fins refererad i några sessioner (ibland måste man manuellt aktivera det, som i restic och numera också i borgbackup ) och därmed återvinner diskplats.
Detta är 'evighets-backupper' som man kan ha år efter år på samma repository och rensa först de äldsta sessionerna när det börja bli fullt på lagringen (däremot kan man behöva rensa många sessioner innan någon synbar diskplats börja återvinnas då skillnaden mellan var session kanske bara är några MB/GB per session...)
Citera flera
Citera
Hårdvara
- Idag Oneplus ryktas lämna Europa 10
- Idag AMD:s flaggskepp når 3,4 GHz – minskar glappet till Nvidia-toppen 33
- Idag Nvidia: ”Kryptovalutor tillför ingenting till samhället” 62
- Igår Intel bantar Arc-drivrutinerna till halva storleken 14
- Igår Gigabyte nästa med AM5-moderkort till AMD:s utlovade instegspris 11
Mjukvara
Datorkomponenter
Ljud, bild och kommunikation
- Vilken film såg du senast?12359
- Vilken alkoholhaltig dryck dricker ni just nu?4932
- Max bite ultimator17
- Dagens fynd — Diskussionstråden44364
- Speldator runt 15 - 20 k7
- Diablo IV – den stora tråden1317
- Bild på din bil-tråden4925
- Brain Drain Retro LAN Millennium Edition8
- AMD:s flaggskepp når 3,4 GHz – minskar glappet till Nvidia-toppen34
- Hur ”Ejectar” man en extern hårddisk?15
- Säljes Thrustmaster Hotas Warthog Flight Stick and Throttle + Logitech Pro Flight Rudder Pedals
- Säljes Gaming-tangentbord. Ducky One 2 mini RGB
- Säljes Redfall PC/Steam key
- Säljes MSI Radeon R9 380 GAMING 4G
- Säljes 2x PC, 144Hz IPS, Vattenkylning, Högtalare
- Säljes Skumma AirPods Pro Gen 1 och oanvänd Phillips HUE Bridge
- Säljes LG CX 48"
- Säljes Ryzen 7000 Delid-Die-Mate for AM5
- Köpes Hogwarts Legacy (PS5 / Xbox Series X)
- Säljes Äldre datordelar
- Oneplus ryktas lämna Europa10
- Microsoft slutar erbjuda Game Pass för en tia13
- Windows 12 spås dubbla krav på primärminne82
- AMD:s flaggskepp når 3,4 GHz – minskar glappet till Nvidia-toppen34
- Nvidia: ”Kryptovalutor tillför ingenting till samhället”62
- Chat GPT visade användares historik och bankuppgifter23
- Intel bantar Arc-drivrutinerna till halva storleken14
- Nyhetsquiz vecka 12 2023: Smuggelgods, bortgång och framsteg37
- Northvolt på jakt efter över 50 miljarder39
- Gigabyte nästa med AM5-moderkort till AMD:s utlovade instegspris11
Externa nyheter
Spelnyheter från FZ
- Rapport: CDPR har lagt 100 miljoner kr på Project Sirius innan omstarten idag
- Brittisk myndighet vänder, tror inte att Activision Blizzard-affären skadar konsolkonkurrensen i stort idag
- The Finals idag
- Hoppsan! "Left 4 Dead 3" skymtat i CS2-betafiler idag
- F1 22 adderas i Game Pass – vi provkör med ASUS senaste värsting idag