Skall man ha en backup som gör att man kommer igång igen vid ett haveri så är en diskimage den snabbaste sättet - i regel kan en sådan alltid fås startbar om den läggs på minst lika stor och större disk.
nackdel... för att det inte skall bli för stora hopp så bör man ta en ny diskimage med inte allt för många månaders mellanrum...
Den övriga backuppen - är det en versionshanterande backup du vill ha - dvs kunna hämta all data som det såg för exakt 3 dagar sedan - eller 2 veckor tillbaka....
Jag skulle säga så här, prova flera olika backupprogram - körd dem parallellt (mot någon nas tex. och sedan prova mot någon molntjänst senare om man känner att den passar)
Kör själv duplicati - den nya på prov medans den gamla (dock mer svällande backupfiler) vet jag att den är närmast skottsäker då den har snurrat i jobbdatorn sedan 2012 med absolut minimal uppmärksamhet - typ verkligen att installera, peka ut vilka filer och direktorys den skall ta, vidare var den skall lägga backupfilerna - och sedan glöm bort att den existera - och 5 år senare så dabbar man sig, ta upp klienten och leta fram dagen med den korrekta kopian och tanka tillbaka - måste säga att jag var en smula imponerad att det fortfarande fungerade med tanke på hur lite jag har brytt mig om den.
Kan redan säga nu att så stabil är inte dagens version av duplicati, men tycker ändå att den är lovande iom. deduplicering och att man aldrig behöver göra en fullbackup igen efter den första är gjord och att man kan ta bort valfri session utan att bryta någon kedjeversion av backupper.
Dedupliceringen är viktig då mer traditionella TAR-baserade backupper med inkrementella och/eller differentiella backupper får rejäl tillväxt om man tex. flyttar en hieraki med foton eller bara byter namn på direktoryt och plötsligt är backuppen dubbelt så stor på servern.
Med deduplicering händer det inte - man kan flytta runt bilderna som man vill, har flera exemplar av samma bild på olika ställen, om en bild är instoppat i en dokument så kan det trigga även på det etc. i backup-repositoriet iom. att det är chunk-baserat, identifieras med hash-summor och känner igen om filbitar redan finns på andra ställen sedan tidigare och finns i bara en enda exemplar och en databas håller sedan reda på vad dessa filbitar håller hus och hur de skall sättas ihop igen när man hämtar tillbaka igen någon gång i framtiden
Dock som de flesta backupprogram så kan man inte ta bort enskilda filer, bara hela backupsessioner
Borg-backup är mycket intressant som backupmotor med ingen grafisk GUI utan strikt CLI och inte så många leveransmöjligheter som duplicati (sedvanlig filsystem lokalt eller över nätverksenheter, via SSH och mot en Borg-server på mottagande dator/NAS/Server - dom två senare är avgjort att föredra i avseende att minska riskytan för ransomware-angrepp)
Borg-backup är inte byggd för windows utan för unix/linux-värden - men går att köra windows subsystem av linux under windows (äldre versioner finns/fanns under cygwin)
Båda nämnda kan lämna filer till en skyddande miljö på en server och inte kan kommas åt med sedvanliga SMB-nätverksenheter som ransomware verkar igenom.
Båda är också krypterande lokalt i datorn innan backupperna sänds till sin repositorium och sitter inte i knäna på någon molntjänsts applikation och en förmodad 'mastenyckel' påtvingad av olika myndigheter.
Det finns en bunt kommersiella varav några redan är nämnda i tråden