Back up en viss katalog varje dag kl 04:00 till en usb hårddisk.

Permalänk
Medlem

Back up en viss katalog varje dag kl 04:00 till en usb hårddisk.

Tjo.

Jag har googlat men inte hittat riktigt hur jag för att göra Back up på en viss katalog med allt innehåll i varje dag kl 04:00 till en usb hårddisk.

Har ni några bra guider hur man gör detta ?

Permalänk
Medlem

Du ställer klockan på 3:50, går fram till datorn, ctrl+c på mappen och ctrl+v i usb-disken.

Skämt åsido, vilket OS kör du?

Permalänk
Arvid Nordqvist-mannen

En backup till en disk som är online hela tiden? Nja.. Sions tips är faktiskt väldigt bra.

Schemalägg en batchfil som kopierar innehållet

Permalänk
Medlem

Enklaste jag kan komma på om du kör windows är samma som ovan. Skapa en batch-fil och schemalägg den med windows schemaläggare. Sen beror det lite på hur och vad du vill kopiera? Har för mig att robocopy är rätt kompetent.

Permalänk
Medlem

Ledsen jag som missade att skriva, det är en ubuntu server.

Permalänk
Medlem
Permalänk
Medlem

Menar du att man editerar crontab med nano och sedan i text filen använder tex cp kommandot ?

Permalänk
Medlem
Skrivet av forcevision:

Menar du att man editerar crontab med nano och sedan i text filen använder tex cp kommandot ?

Skapa ditt skript och spara någonstans.

Logga in på servern, kör "sudo crontab -e" för att redigera crontab. Kolla här om du vill ändra vilken editor som används.

Kolla här för att ställa in när du vill att skriptet ska köras.

Exempelrad i crontab: 6 10 * * 5 /scripts/backup.sh

Permalänk
Medlem

Jag använde den här guiden för att få min Pi-Hole att uppdatera sig själv en gång i veckan.
Du borde kunna använda samma guide men lite andra kommandon för att åstadkomma det som du vill göra.

https://www.paulligocki.com/auto-update-raspberry-pi-using-a-...

Permalänk
Medlem

Kör på ett script som redan nämnts 👍 om du inte vill skriva över gårdagens grejer är det ganska enkelt att lägga till dagens datum till katalogen som backas tex

Inte direkt facit men exempel på lösningar att labba med.
https://ostechnix.com/how-to-create-directories-named-with-cu...

Permalänk
Medlem

Är det bara att det skall synkas mot en speglings-mapp eller skall du ha på generations-mässig struktur att du skall kunna återskapa i hur mappen såg ut för 10 dagar sedan om något tråkigt hände sista dygnen och all data blev ransomware-krypterat och sedans synkades mot mappen och alla dina friska filer försvann över långhelgen/semestern/sportlovet?? (det är då det händer - de flesta ransomware-kampanjer sjösätts inför storhelger och semestrar just för att det inte skall upptäckas så fort och därmed göra så stor skada som möjligt) - jag brukar sätta att man skall ha skyddade backupper/snapshot som räcker minst 3 månader bak i tiden då det också har funnits tidsutlösta ransomware som ligger och lurka länge som en del av filsystemet och sedan skrotar nyckeln... det är förvisso oftast arbetstagar-sabotage i konflikt med företaget men ger enorm skada för företagen som drabbas av det då man har ofta för kortsiktiga backupstrategier och är inte beredd på att gå tillbaka 6 månader innan friska kopior...

I så fall bör du titta på att använda BTRFS som lagringsdisk-filsystem (vilket stöds i ubuntu) och använda snapshot av mapparna - snapshot tar ingen extra diskplats men kan göras read-only. Detta är jättesvårt att få till liknande på filsystem som inte har snapshot-möjligheter och varaktig snapshot som kan ligga i månader är heller inget för volym-manager som LVM då deras snapshot är för att göra en tillfällig snapshot som en backupprogram sedan kan skrapa av för att synka sin repositorie och när den är klar sedan släpper snapshoten - MS VSS-system (aka shadow copy) är samma sak och båda är också av typen att om det skrivs mycket data mot diskarna medans dess snapshot existerar så måste de släppa snapshoten när deras buffer med köade skrivningar eller differens mellan snapshot och uppdateringar är för stor, synkning måste köras och så försvinner snapshoten - och det kan det göra när som helst och även när en backupprogram håller på med synkning....

Lite bättre NAS av Synology och Netgear (de lite dyrare modellerna) använder sig just av BTRFS för att få till detta med ofta dolda och skrivskyddade snapshot av de utdelade volymerna och den Netgear jag har så används 'snapper' som bakgrunds program som hanterar dessa snapshot inklusive utglesningen av snapphot ju äldre de är (daglig snapshot till 14 dagar- veckosnapshot till 3 månader, månadsbackup till och med 6 månader, 6 månads backup efter detta som aldrig raderas (mer än manuellt) etc.

Observera att snapshot inte är en ersättning för en riktig backup som synkas och därefter kopplas ur och läggs undan med lämplig intervall. När allt har skitit sig på riktigt så är din undanlagda backup din enda _verkliga_ backup när det kommer till kritan!.

Även backupdisken kan ha BTRFS och om man gör en snapshot innan synkning med tex. rsync så får du även revision/versionshanteringar av dina backuppsessioner på din backupdisk som du lägger undan och det spar plats då snapshot inte tar extra plats och rsync är smart nog att inte skriva filer som redan finns och inte ändrats sedan förra gången (och med --inplace flagga också kan modifiera en fil på plats i backuppen och bara ändra de sektorer som har ändrats sedan förra synkningen - vilket kan vara bra om det är jättestora databaser med liten ändring mellan sessionerna - och då tar det heller inte plats på disken med multipla fullsize-kopior av filen ifråga i backupen) - obs:!! --inplace flagga i rsync skall bara hanteras i samband med att man gör riktiga snapshot av backupmappen - inte genom att kopiera till mappar med hårdlänkade filer med "cp -al mapp1 mapp2" inför varje rsync-session i ett försök att ha revisioner av sina backupper på filsystem om inte kan göra snapshot av mappar. rsync är förvisso bra att bryta hårdlänkade filer när en ny fil med samma namn dyker upp men med nyare 'mod' datum och förstör inte hela kedjan med hårdlänkade filer som är i sina andra backupmappar.

Där har också BTRFS väldig bra grej - att kunna göra en "cp -a --reflink=always mapp 1 mapp2" där den nya mappen är exakt kopia av orginal-mappen vars filer i mappen pekar på exakt samma fysiska sektorer som orginalet men är helt oberoende av varandra - dvs. ändras filer i orginalmappen så kommer inte något av detta ändras i den kopierade mappen på samma sätt som när man använder filer med hårda länkar!!! det är BTRFS COW-egenskaper som spelar in här.

Permalänk
Medlem
Skrivet av forcevision:

Tjo.

Jag har googlat men inte hittat riktigt hur jag för att göra Back up på en viss katalog med allt innehåll i varje dag kl 04:00 till en usb hårddisk.

Har ni några bra guider hur man gör detta ?

När du sen har denna kopiering på plats så tar du var till varannan månad en kopia på din USB hårddisk till en ytterligare hårddisk eller till molnet.

Då har du backup. En USB som ständigt är ikopplad duger inte om det är viktiga saker du behöver spara

Permalänk
Medlem
Skrivet av CymbalCrasher:

Skapa ditt skript och spara någonstans.

Logga in på servern, kör "sudo crontab -e" för att redigera crontab. Kolla här om du vill ändra vilken editor som används.

Kolla här för att ställa in när du vill att skriptet ska köras.

Exempelrad i crontab: 6 10 * * 5 /scripts/backup.sh

Jag rekommenderar att lägga in cronscriptet i en fil i /etc/cron.d istället för crontab. Detta för att crontab är enkelt att rensa av misstag, "crontab -e" är för att redigera, "crontab -r" rensar crontab utan att fråga något. E & R ligger ju bredvid varann på tangentbordet så risken finns.

Exvis:
sudo nano /etc/cron.d/backup-av-katalog
0 4 * * * root cp -rp /katalog /backup

Syntaxen är lik crontab med tillägget att man kan specificera vilken användare som man kör kommandona som, i exemplet ovan körs det som root.

Permalänk
Medlem

Har du tid och energi så kan du använda borgbackup.
De har guider på deras hemsida (för att göra backup manuellt),
Men finns guider på nätet.

I scriptet kan du även Mounta och unmounta disken, så den inte är "tillgänglig" övrig tid.
Har tyvärr inget exempel att dela med mig av.

Permalänk
Medlem

En fråga till finns det möjlighet att göra backupen till tex google drive ?

Permalänk
Medlem

'rclone' kan prata mot en rad olika molntjänster och har delvis liknande 'rsync' i funktioner när det gäller att göra backup av olika filmappar

'rclone' kan också 'montera' molntjänsten till en mapp så att du tex kan använda 'rsync' eller annan backupprogram och alla filerna som läggs specifikt i mappen överförs till molntjänsten - och även raderingar av filer - glöm inte det...

rsync är smart att inte flytta över filer som redan finns på lagringsstället utan kopierar bara nya och ändrade filer.

För att ha något som kallas backup måste molntjänsten eller använda NAS ha någon form av hantering av filgenerationer eller backupsessioner (en bakgrundsjobbande snapshot går också bra som en del av tex Synologus +-modeller) - dvs. när filer med samma namn skrivs över eller raderas så finns den gamla versionen kvar en tid osynliggjord och det är detta man måste ha för att få tillbaka sina filer igen efter en ransomware-angrepp och de krypterade filerna har hunnits kopierats över till molntjänsten och de friska som fans där innan raderats...

Har inte molntjänsten någon generations eller revisitionshantering av filer så har du ingen backup då gamla versionerna av filerna försvinner i samma sekund som dator och molntjänst gör synkning och tex. ersätts med ransomware-krypterade filer

Hur vet du om du har revisionshantering - tja, om det inte står något om det i abonnemanget av molntjänsten så utgår att du inte har det - att hantera multipla versioner av samma fil(namn) tar lagringsplats och det vill molntjänsten ha betalt för.

tex. Blackblaze B2 har revisions-hantering - men innebär också att du får betala för all den plats som även de dolda äldre versionerna av filerna tar upp i plats. Man kan själv bestämma hur länge de äldre versionerna skall finnas kvar innan de försvinner för alltid.

Kör du egen NAS/Server med 'minio' som S3-server/lagring så kan du själv ställa hur gamla de olika versionerna av filerna får bli innan de är möjliga att ta bort och också en äggklocka hur gamla filerna tillåts bli lagrade efter en 'radering' (men återhämtningsbart) innan de slutligen försvinner permanent.

Permalänk
Medlem
Skrivet av xxargs:

'rclone' kan prata mot en rad olika molntjänster och har delvis liknande 'rsync' i funktioner när det gäller att göra backup av olika filmappar

'rclone' kan också 'montera' molntjänsten till en mapp så att du tex kan använda 'rsync' eller annan backupprogram och alla filerna som läggs specifikt i mappen överförs till molntjänsten - och även raderingar av filer - glöm inte det...

rsync är smart att inte flytta över filer som redan finns på lagringsstället utan kopierar bara nya och ändrade filer.

För att ha något som kallas backup måste molntjänsten eller använda NAS ha någon form av hantering av filgenerationer eller backupsessioner (en bakgrundsjobbande snapshot går också bra som en del av tex Synologus +-modeller) - dvs. när filer med samma namn skrivs över eller raderas så finns den gamla versionen kvar en tid osynliggjord och det är detta man måste ha för att få tillbaka sina filer igen efter en ransomware-angrepp och de krypterade filerna har hunnits kopierats över till molntjänsten och de friska som fans där innan raderats...

Har inte molntjänsten någon generations eller revisitionshantering av filer så har du ingen backup då gamla versionerna av filerna försvinner i samma sekund som dator och molntjänst gör synkning och tex. ersätts med ransomware-krypterade filer

Hur vet du om du har revisionshantering - tja, om det inte står något om det i abonnemanget av molntjänsten så utgår att du inte har det - att hantera multipla versioner av samma fil(namn) tar lagringsplats och det vill molntjänsten ha betalt för.

tex. Blackblaze B2 har revisions-hantering - men innebär också att du får betala för all den plats som även de dolda äldre versionerna av filerna tar upp i plats. Man kan själv bestämma hur länge de äldre versionerna skall finnas kvar innan de försvinner för alltid.

Kör du egen NAS/Server med 'minio' som S3-server/lagring så kan du själv ställa hur gamla de olika versionerna av filerna får bli innan de är möjliga att ta bort och också en äggklocka hur gamla filerna tillåts bli lagrade efter en 'radering' (men återhämtningsbart) innan de slutligen försvinner permanent.

Jag kör ubuntus senaste server version, och minecraft bedrock server och vill göra backup på katalogen worlds i bedrock. Och då hade det varit grymt och kunna lägga dessa backuper på google drive.

Permalänk
Medlem

Då bör rclone som koppla kontot till en mapp fungera - revisionshanteringen få du dock lösa på egen sätt om inte google-drive har något eget som jobbar i bakgrunden.

Ett alternativ om det 'bara' handlar om backup att kunna ta tillbaka när olyckan är framme är att titta på duplicay (prenumeration - dock rätt nice webbgränssnitt där du kan lägga tider etc.) och restic (cli-program och du får själv fixa schemaläggnningen med 'cron')

båda pratar mot molntjänster - är sessions-baserade (varav sessioner kan tas bort individuellt utan beroende av ordningsföljd eller beroenden av annan session) vilket gör att du får generationsbackupper, är deduplicerande backuper vilket gör att inte mer data än nödvändigt skickas upp till lagring och det gäller även förändringar inom stora databasfiler så är bara det som modifierats som skickas lagringen

Min personliga favorit är fortfarande borg-backup men pratar inte mot molntjänster - men använder man tex. 'rclone' som mappar en molntjänst till en mapp så är det inget som hindrar att lägga borg-backups repositorie där.

borgbackup är precis som restic och duplicacy deduplicerande backup-program med backupsessioner som kan raderas individuellt utan beroende och skickar inte upp mer data än nödvändigt mot lagringen samt alla arbetar med krypterade format och är krypterat innan datat lämnar datorn mot molnlagringen.

---

Slutligen - när du gör backup - är aktuella filer 'stängda' eller producerade som en backupfil av minecraft själva?. Att göra backup på filer som är under full användning samtidigt är ingen hit då databasen förmodligen hinner förändra sig invändigt många gånger medan backupprogrammet läser av filer och det som lagras är då korrupt och oanvändbart.

Detta är ett allmänt problem när det gäller backupper av filer och olika databaser som är aktiva och förändrar sig medans backup görs.

Skall man få ögonblicksbilder (ungefär som ett strömavbrott - vilket många databaser/filer kan göra recovery ifrån, men inte om modifieringarna har gjorts löpande medans backuppen tragglar igenom filen i långsam takt under tiden) så behöver man göra snapshot på atomisk nivå. Och det är för närvarade filsystem som BRFS och ZFS som kan erbjuda.

Eventuellt kan också snapshot göras på ext4 via LVM och då får en 'disk' en tid med frusen bild av monterade volymen som backup-program kan gå igenom utan att något hinner förändras under backupen, men så försvinner den efter en tag och kan inte sparas 'för evigt'. medans snapshot i BTRFS kan vara kvar så länge man önskar och kan tas bort oberoende av andra snapshot (aka subvolymer) gjorda före och efter medans ZFS är hierarkiskt och upptagna datat i snapshot är kvar tills hela datasetet skrotas eller gör rollback tillbaka till punkten innan gjorda snapshot

Permalänk
Medlem
Skrivet av xxargs:

Då bör rclone som koppla kontot till en mapp fungera - revisionshanteringen få du dock lösa på egen sätt om inte google-drive har något eget som jobbar i bakgrunden.

Ett alternativ om det 'bara' handlar om backup att kunna ta tillbaka när olyckan är framme är att titta på duplicay (prenumeration - dock rätt nice webbgränssnitt där du kan lägga tider etc.) och restic (cli-program och du får själv fixa schemaläggnningen med 'cron')

båda pratar mot molntjänster - är sessions-baserade (varav sessioner kan tas bort individuellt utan beroende av ordningsföljd eller beroenden av annan session) vilket gör att du får generationsbackupper, är deduplicerande backuper vilket gör att inte mer data än nödvändigt skickas upp till lagring och det gäller även förändringar inom stora databasfiler så är bara det som modifierats som skickas lagringen

Min personliga favorit är fortfarande borg-backup men pratar inte mot molntjänster - men använder man tex. 'rclone' som mappar en molntjänst till en mapp så är det inget som hindrar att lägga borg-backups repositorie där.

borgbackup är precis som restic och duplicacy deduplicerande backup-program med backupsessioner som kan raderas individuellt utan beroende och skickar inte upp mer data än nödvändigt mot lagringen samt alla arbetar med krypterade format och är krypterat innan datat lämnar datorn mot molnlagringen.

---

Slutligen - när du gör backup - är aktuella filer 'stängda' eller producerade som en backupfil av minecraft själva?. Att göra backup på filer som är under full användning samtidigt är ingen hit då databasen förmodligen hinner förändra sig invändigt många gånger medan backupprogrammet läser av filer och det som lagras är då korrupt och oanvändbart.

Detta är ett allmänt problem när det gäller backupper av filer och olika databaser som är aktiva och förändrar sig medans backup görs.

Skall man få ögonblicksbilder (ungefär som ett strömavbrott - vilket många databaser/filer kan göra recovery ifrån, men inte om modifieringarna har gjorts löpande medans backuppen tragglar igenom filen i långsam takt under tiden) så behöver man göra snapshot på atomisk nivå. Och det är för närvarade filsystem som BRFS och ZFS som kan erbjuda.

Eventuellt kan också snapshot göras på ext4 via LVM och då får en 'disk' en tid med frusen bild av monterade volymen som backup-program kan gå igenom utan att något hinner förändras under backupen, men så försvinner den efter en tag och kan inte sparas 'för evigt'. medans snapshot i BTRFS kan vara kvar så länge man önskar och kan tas bort oberoende av andra snapshot (aka subvolymer) gjorda före och efter medans ZFS är hierarkiskt och upptagna datat i snapshot är kvar tills hela datasetet skrotas eller gör rollback tillbaka till punkten innan gjorda snapshot

Detta låter som över min kunskap tyvärr.
Följde en guide som skapar en backup på följande sätt
cd ~/minecraftbe
./stop.sh
rm -rf worlds
tar -xf backups/2019.02.15.22.06.30.tar.gz
./start.sh

Och daglig backup görs med hjälp av
crontab -e
Gissar att det blir lättare om jag gör en backup till ett usb minne tex ?

Permalänk
Medlem

Flashbaserad USB-sticka är ingen säker lagring. USB-pSSD som samsung T5/T7 bättre, men för backup är klassiska snurrdiskar - även USB-snurrdiskar att föredra alla gången och gärna backuppen i minst 2 fysiska diskar.

Backupprogram som gör sina egna repositorier för backupperna är heller ej speciellt känsliga för SMR-diskar, inte ens SMR-diskar med NTFS-filsystem då när dom skriver så skriver dom sekventiellt - och nyttan med SSD i avseende snabbhet högst tveksamt förutom nackdelen priset per TB lagring dessutom.

---

Jag skulle ge borg-backup ett försök

Det är inte kunskap som brister (eftersom du vågar dig på Ubuntu och kommandorad där) utan att våga prova - det finns så mycket guide i hur man kör dessa program som jag nämnt i tidigare inlägg att det bör inte vara svårare än att traggla med tar.

Kör fler backup-program parallellt tills du hittar en som du är bekväm med och litar på.

Permalänk
Medlem
Skrivet av xxargs:

Flashbaserad USB-sticka är ingen säker lagring. USB-pSSD som samsung T5/T7 bättre, men för backup är klassiska snurrdiskar - även USB-snurrdiskar att föredra alla gången och gärna backuppen i minst 2 fysiska diskar.

Backupprogram som gör sina egna repositorier för backupperna är heller ej speciellt känsliga för SMR-diskar, inte ens SMR-diskar med NTFS-filsystem då när dom skriver så skriver dom sekventiellt - och nyttan med SSD i avseende snabbhet högst tveksamt förutom nackdelen priset per TB lagring dessutom.

---

Jag skulle ge borg-backup ett försök

Det är inte kunskap som brister (eftersom du vågar dig på Ubuntu och kommandorad där) utan att våga prova - det finns så mycket guide i hur man kör dessa program som jag nämnt i tidigare inlägg att det bör inte vara svårare än att traggla med tar.

Kör fler backup-program parallellt tills du hittar en som du är bekväm med och litar på.

Så en extern hdd är bättre tänker du då ?
Problemet är att jag kan inte laborera med den servern då den är i skarpt läge, därför jag är lite orolig så jag inte ställer till det 😀