TAR skulle förvisso fungera, men har du tittat på duplicity, duplicati, borg-backup
Duplicity och duplicati bygger i princip på samma filosofi ala TAR-backup men har lagt till featurer som att kunna sända data via ssh, till olika molntjänster och dessutom kryptera alltihop (om man vill) innan datat lämnar den fysiska burken. dessa gör incemetella backupper men problemet är att man behöver göra ny masterbackup med jämna mellanrum. om inte annat så lär man sig den dagen när en återhämtning innebär att gå igenom masterbackuppen och sedan alla 90 dif-filarkiv innan man kan få ut sin data från igår... ovanstående brukar ha 30-dagars cykler mellan sina mastebackup.
Borg-backup är ännu mer avancerad - förutom att komprimera och kryptera datat, så deduplicerar den också datat - dvs. har du tex. bilder eller stycken ur en större fil som förekommit minst en gång tidigare i tidigare backup i repositoriet, så lagras det inte på nytt utan det bara sparas en referens. Den är heller inte beroende vilken ordning backupperna gjordes eller att att man behöver ta en 'masterbackup' med jämna mellanrum som nästan alla andra backuplösningar kräver. man kan i fritt val ordning rensa av de tagna backupperna (och det finns funktioner för det) och återta diskutrymme för just det unika datat som tas bort i och med att man tar bort backupsessioner.
Ej heller känslig om du flyttar runt bildarkiv eller media-arkiv eller göra kopior av dem i massor på datorn och alla andra datorer som man gör backup mot samma repositorie - det är fortfarande bara en enda exemplar av varje unik bild/media/fil som lagras i repositoriet. alla kopior utöver detta lagras bara som referens.
Många andra backuplösningar kan växa våldsamt i storlek om man har sorterat, flyttat runt och fixat sitt bild och media-arkiv
prova flera backupalternativ tills du hittar en lösning för dig.