Rsync gör en filträds-spegling till annan plats (och gör just det jobbet väldigt bra IMHO) men backup brukar innebära mera som revision/historia där man kan hämta data i filträd i status exakt som det tex. såg ut för 3 veckor och en dag sedan.
Bättre backupprogram brukar också försöka packa datat smart för att ta mindre plats på backupmediat - och den delen har det varit si och så med traditionellt med det som följer med tex. externa diskar och även vilken ordning man kan resa ut (för) gamla backupper.
Dom senaste kör med modern metoder med deduplikering, valfri ordning utrensning av gamla backupper, kryptering av backuppen (viktigt om det lagras på molntjänst) samt supportar ett antal olika överföringsprotokoll utöver att lagra på hårddisk och nätvolym - som via ssh och att prata med med olika molnlagringstjänster.
Det som packar överlägset bäst av allihopa jag provat är Borg-backup https://www.borgbackup.org/ (CLI-program) och kan i princip ha hur många backupversioner som helst (och det går rensa ut gamla backupper i valfri ordning utan beroende av varandra) men har begränsat repertoar när det gäller att kommunicera till servertjänster (via ssh närmare exakt) utöver att lägga data på disk och nätverks-volymer. Borgbackup deduplicerar och komprimerar inom filer och mellan filer gemensam data och tex diskimage av en disk som görs med tex. halvårs mellanrum så läggs det bara till skillnaderna mellan diskimagen i backup-repositoriet och allt igenkännbara binär-stycken i imagen som redan finns i repositoriet så dedupliceras det oavsett hur mycket man flyttat runt tex bilder på disken innan man gjorde diskimagen. Borgbackup använde liknande teknik som rsync (rdiff) med rullande checksummor mm. för att identifiera olika bitar av filen och se om det redan finns lagrat för att så lite ny data som möjligt skall lagras i backuppsessionen.
Näst bästa som har anammat mycket av borg-backups ideer är Duplicati 2 https://www.duplicati.com/ (webb-administrerat med egen webbserver lokalt) - med överlägset bästa reportrar att kunna kommunicera med en rad olika stora molnlagringstjänster (och fler kommer hela tiden att jag tror att utvecklingsgänget bakom duplicati får betalt/support för att lägga in stöd för olika molnlagringsföretag, förutom via ssh och mot hårddisk/nätverksvolymer.
Det är dom två jag skulle prova först när det gäller open-source backupprogramvara - Borg-backup för "in house-lagring" på NAS och externa USB-hårddiskar och Duplicati för att lagra på molntjänster där 'alla' dom stora är representerade.
Sedan finns det kommersiella program , som Macrium reflect, weeam mfl. men innan man skickar en massa pengar på dem så bör man kolla dessa noga och se om de har några uppenbara fördelar/bekvämligheter utöver ovanstående opensource-backupprogram att det är värt priset.
Själv tar jag gärna lite omak som CLI-gränssnitt som borg-backup om jag vet att den packar väldigt bra och i övrigt verkar robust (dvs alltid kan få tillbaka datat igen) - den gamla duplicati (1.3.4) har fungerat oklanderligt i alla fall 5 år i windows och har kunna skaffa tillbaka filen de få gånger jag behövt det och nästan glömt bort att programmet övh. fanns installerat och snurrande (men har nackdelen att den sväller i backend om man sparar för många månader i rad då den lagrade på traditionell 'tar-vis med huvud-backup och sedan inkrementell backup i 30 dagar - sedan ny huvudbackup... - Duplicati 2.0 (beta) har lagringsfilosofi mycket taget på samma principer som BorgBackup och ger mycket kompaktare lagring och man behöver aldrig göra ny huvudbackupp efter den första gjorda.
Och slutligen - prova, prova, prova inklusive att göra återställning på de produkter man tror på och gillar, kör flera parallellt till en början - en dag kanske man behöver backuppen skarpt! och då är det väldigt bra om det också fungerar!!
Betalprogram ger ingen som helst garanti att det fungerar när det gäller - tex. sådana saker som att hantera ÅÄÖ som första bokstav i filnamn och backupprogrammet vid återläsning kunde inte ta sig förbi den punkten utan bara krachade oavsett DOS/Winversioner och olika revisioner och därmed resterande 98% av backuppen oåtkommlig då det inträffade precis i början (det var på dos/windows 9X-tiden) - medans sin egna verifiering så gick det alldeles utmärkt då den egentligen aldrig skrev ut filerna på disken igen och jämförde... det som stökade på den tiden var att stora Ö som första bokstav i filnamnet och med den teckensättningen som rådde vid den tiden också var markeringen för raderad fil i FAT... därav varför backupprogrammen krachade när den skulle skriva mot disk... jänkarna hade inte provat det fallet - och då pratar vi om stort backupprogramföretag på den tiden...
Med andra ord man har ingen backup förrän den är verifierad med en riktig återtagning mot disk minst ett eller par gånger då och då.