Anmäl dig till Roborock Challenge!

Vilket är bästa sättet skapa en återställningsbackup?

Permalänk

Vilket är bästa sättet skapa en återställningsbackup?

Jag har en Windows 7-dator som jag använder till spel, fotohantering, ljudredigering och liknande.

Jag skulle vilja göra en backup på hela operativsystemet och allt som finns på C: och lägga på en extern hårddisk för att bara kunna lägga in allt på nytt i händelse av disk-krasch eller på en ny dator, detta för att slippa behöva sitta i flera timmar och lägga in allt.

Vilket är den bästa metoden att göra det?

Jag tittade lite på Rescuezilla men är osäker på om jag ska kopiera eller klona det jag har på C:

Vilken metod är bäst och vilka möjligheter och program för sådant finns förutom Rescuezilla.

Permalänk
Arvid Nordqvist-mannen

Rescuezilla skulle fungera utmärkt,klona gör ju 100%-ig kopia av hela disken.
AOMEI Backupper kör jag ibland.

Permalänk
Rekordmedlem

Byter du delar ska du inte återställa en klon och kanske inte heller en backup på os utan installera om.
För allt utom spel borde en virtuell maskin fungera väl så bra och det förenklar nog både val av hårdvara och backup.

Visa signatur

R5 5600G, Asus ROG STRIX X470-F Gaming, WD SN850X 2TB, Seasonic Focus+ Gold 650W, Aerocool Graphite v3, Tittar på en Acer ET430Kbmiippx 43" 4K. Lyssnar på Behringer DCX2496, Truth B3031A, Truth B2092A. Har också oscilloskop, mätmikrofon och colorimeter.

Permalänk
Skrivet av mrqaffe:

Byter du delar ska du inte återställa en klon och kanske inte heller en backup på os utan installera om.
För allt utom spel borde en virtuell maskin fungera väl så bra och det förenklar nog både val av hårdvara och backup.

Så det är ingen idé att klona disken om jag exempelvis måste byta ut något, typ moderkort, grafikkort eller annat?

Har för övrigt ett problem med en fläkt på moderkortet. Den låter som ett flyglarm, ett konstant oljud som är mycket irriterande. Måste åtgärdas men det tar jag i en annan tråd.

Nu är det så att jag har ett par spel som inte fungerar på Windows 10 vilket är en av anledningarna till att jag har en Windows 7-dator.

Permalänk
Rekordmedlem
Skrivet av Northpower97:

Så det är ingen idé att klona disken om jag exempelvis måste byta ut något, typ moderkort, grafikkort eller annat?

Har för övrigt ett problem med en fläkt på moderkortet. Den låter som ett flyglarm, ett konstant oljud som är mycket irriterande. Måste åtgärdas men det tar jag i en annan tråd.

Nu är det så att jag har ett par spel som inte fungerar på Windows 10 vilket är en av anledningarna till att jag har en Windows 7-dator.

En klonad disk innehåller specifika drivrutiner och inställningar för hårdvaran och win gillar inte att flyttas mellan olika hårdvaror och en flytt kan därför skapa problem.
Själva installationen av win bör helst aldrig byta hårdvara men är det en spelmaskin är det inte heller nån känslig burk som bara måste fungera stabilt så ev problem gör kanske inte så mycket ?

Visa signatur

R5 5600G, Asus ROG STRIX X470-F Gaming, WD SN850X 2TB, Seasonic Focus+ Gold 650W, Aerocool Graphite v3, Tittar på en Acer ET430Kbmiippx 43" 4K. Lyssnar på Behringer DCX2496, Truth B3031A, Truth B2092A. Har också oscilloskop, mätmikrofon och colorimeter.

Permalänk
Medlem
Skrivet av mrqaffe:

Byter du delar ska du inte återställa en klon och kanske inte heller en backup på os utan installera om.
För allt utom spel borde en virtuell maskin fungera väl så bra och det förenklar nog både val av hårdvara och backup.

Min erfarenhet är dock god av att byta saker och bara använda samma HD med windows 10.

Bytte från Intel 930 till AMD AM4 plattform men behöll hårddisken.

Windows server 2019 OS i mitt fall.
Den har gått 100% stabilt sen bytet

Dock ingen speldator. Har den som spelserver bara.

EDIT: Såg att det var en win 7 dator...där är jag också lite skeptisk till att det är en bra idé däremot, har ingen erfarenhet av att byta hårdvara men behålla windows disken

Visa signatur

5700x3D | RTX 3080 | 2 TB M.2 | 32 GB RAM

Permalänk
Medlem
Skrivet av Northpower97:

Jag har en Windows 7-dator som jag använder till spel, fotohantering, ljudredigering och liknande.

Jag skulle vilja göra en backup på hela operativsystemet och allt som finns på C: och lägga på en extern hårddisk för att bara kunna lägga in allt på nytt i händelse av disk-krasch eller på en ny dator, detta för att slippa behöva sitta i flera timmar och lägga in allt.

Vilket är den bästa metoden att göra det?

Jag tittade lite på Rescuezilla men är osäker på om jag ska kopiera eller klona det jag har på C:

Vilken metod är bäst och vilka möjligheter och program för sådant finns förutom Rescuezilla.

Standard i linux är att från en live-linux köra dd eller ddrescue, men eftersom du behöver fråga så är det nog inte att rekommendera. Körde det mycket på win-95 - 98 tiden då en misslyckad drivruntinsinstallation ofta gjorde att win inte gick att starta.

C:, UEFI och ev rescue partition ska klonas. Övriga beror på vad de innehåller. Klona är säkrast men tar mer plats.
Det går bra byta HDD/SDD men byter man tex moderkort (om inte exakt samma modell) så är det ominstallation som är rekommenderat som andra skriver.

Permalänk
Skrivet av SAFA:

Standard i linux är att från en live-linux köra dd eller ddrescue, men eftersom du behöver fråga så är det nog inte att rekommendera. Körde det mycket på win-95 - 98 tiden då en misslyckad drivruntinsinstallation ofta gjorde att win inte gick att starta.

C:, UEFI och ev rescue partition ska klonas. Övriga beror på vad de innehåller. Klona är säkrast men tar mer plats.
Det går bra byta HDD/SDD men byter man tex moderkort (om inte exakt samma modell) så är det ominstallation som är rekommenderat som andra skriver.

Nu använder jag Windows och inte Linux men tack i alla fall för förslag.

Permalänk
Medlem

Man får vänja sig att det är linux som gäller när man skall dribbla med diskimages och annat av mer lättbegriplig hantering och på 'idiotsäker' nivå (dvs. inte för många mekanismer i en kedja som kan krångla)

en sak som man alltid numera skall ta ut på windows-diskar är återställningsnyckeln för volymen då windows numera är 'snäll' och kör bitlocker på datorn utan att ha frågat dig...

det blir lite struligt annars om diskimagen skall läggas in på en ny lagring för att den gamla har gått sönder av någon anledning eller bytt ut hårdvara på annat sätt.

---

Om det tas från SSD/NVMe och windows kör TRIM på denna i bakgrunden så kan man spara en hel del diskimageplats (såvida disken inte är knökfylld), så kan en

'dd if=/dev/sdx of=/media/path/diskimage_datum.img conv=sparse ibs=1024k obs=4k status=progress'

skapa diskimagen som en fil på inkopplade lagringsdisken.

'sdx' kan vara någon av /dev/sda, sdb etc. eller nvme.. vilket man kollar med 'lsblk' innan man kör det

...och att man alltid kollar med lsblk strax innan körningen, då med en omstart mellan så kan diskarna ha bytt plats logiskt då den förste som blir klar är den som blir först i listan i BIOS

Med 'sparse' så lagras inte att block som är bara fyllda med '0' utan bara noteras i filsystemets metadatat (och 0-blocken återgenereras igen vid läsning - om det inte avsiktligt kopieras som just sparsefiler - tex. 'rsync' kan både generera och flytta sparsefiler inom datorn och mellan datorer och den vägen inte flytta områden med väldigt mycket sammanhängande '0' i överföringen)

Det jag dock noterat nyligen att när man gick över till kerneldriven NTFS i Linux så verkar inte sparse-skrivningen fungera mot NTFS-filsystem längre - det gjorde det när det körde med gamla FUSE-kopplade 3G-NTFS-drivrutinen innan...

Om man dessutom lagrar sin diskmagefil på en BTRFS-filsystemet (vilket är en säkrare och mer stryktålig form av filsystem på löstagbar median än med NTFS, som är enkel att ta sönder och innehållet blir oläsbar vid en glapp och/eller missgrepp med tex. USB-anslutningen... - IMHO) och en skapad mapp under BTRFS som man gör den komprimerande med 'chattr +c mappnamn' så dels slipper man med 'sparse' spara alla 'tomma' områden på disken (under förutsättning att det är 'trimmad') och dels komprimeras övrig data hyfsat hårt vilket gör att även en disk på 1 TB-storlek med nyinstallerad windows på, kanske bara upptar kring 20-30 GB med reel diskutrymme när det hela är klart och ändå är en byte till byte-lika kopia när den senare läses och skrivs tillbaka till orginaldisken när man vill göra en återställning.

---

MS har egen image och återställningsprogram (med olika namn beroende på om det är windows för desktop eller för server) som i grunden skapar en VHDx-image av disken - men den går via shadow-copy och skapade diskimagen ser då ut i samma status som efter en strömavbrott vilket inte alltid är idealt och äldre program som inte räknar med 'plötslig strömavbrott' mitt under körningen som äldre DB-motorer kan få rejäla integritetsproblem med detta och man måste ladda tillbaka den nyaste existerande backuppen igen innan det hoppar igång igen. (och det bör man kolla innan man gör backup med MS egna program att återställningen faktiskt fungerar... vi har massor av sådan gammal skit snurrande på jobbet, med program som typ fyller 20 år och inget nyare finns som fungerar med det den skall övervakas...)

---

Är mjukvarorna man kör inte hårdvaruintensivt, kräver direktaccess till grafikkkort etc. (en del av accessen går att mickla till via VM ändå) utan kör det mesta via nätverk när det gäller kommunikation in/ut så kan man överväga att köra instansen i en VM-maskin man tycker sig ha koll på.

Dock att flytta en windows från en SSD i en dator till en VM-miljö så brukar det krävas en ny windows-licens då det blir en helt annan (emulerad) hårdvarusignatur.

Permalänk
Skrivet av xxargs:

Man får vänja sig att det är linux som gäller när man skall dribbla med diskimages och annat av mer lättbegriplig hantering och på 'idiotsäker' nivå (dvs. inte för många mekanismer i en kedja som kan krångla)

en sak som man alltid numera skall ta ut på windows-diskar är återställningsnyckeln för volymen då windows numera är 'snäll' och kör bitlocker på datorn utan att ha frågat dig...

det blir lite struligt annars om diskimagen skall läggas in på en ny lagring för att den gamla har gått sönder av någon anledning eller bytt ut hårdvara på annat sätt.

---

Om det tas från SSD/NVMe och windows kör TRIM på denna i bakgrunden så kan man spara en hel del diskimageplats (såvida disken inte är knökfylld), så kan en

'dd if=/dev/sdx of=/media/path/diskimage_datum.img conv=sparse ibs=1024k obs=4k status=progress'

skapa diskimagen som en fil på inkopplade lagringsdisken.

'sdx' kan vara någon av /dev/sda, sdb etc. eller nvme.. vilket man kollar med 'lsblk' innan man kör det

...och att man alltid kollar med lsblk strax innan körningen, då med en omstart mellan så kan diskarna ha bytt plats logiskt då den förste som blir klar är den som blir först i listan i BIOS

Med 'sparse' så lagras inte att block som är bara fyllda med '0' utan bara noteras i filsystemets metadatat (och 0-blocken återgenereras igen vid läsning - om det inte avsiktligt kopieras som just sparsefiler - tex. 'rsync' kan både generera och flytta sparsefiler inom datorn och mellan datorer och den vägen inte flytta områden med väldigt mycket sammanhängande '0' i överföringen)

Det jag dock noterat nyligen att när man gick över till kerneldriven NTFS i Linux så verkar inte sparse-skrivningen fungera mot NTFS-filsystem längre - det gjorde det när det körde med gamla FUSE-kopplade 3G-NTFS-drivrutinen innan...

Om man dessutom lagrar sin diskmagefil på en BTRFS-filsystemet (vilket är en säkrare och mer stryktålig form av filsystem på löstagbar median än med NTFS, som är enkel att ta sönder och innehållet blir oläsbar vid en glapp och/eller missgrepp med tex. USB-anslutningen... - IMHO) och en skapad mapp under BTRFS som man gör den komprimerande med 'chattr +c mappnamn' så dels slipper man med 'sparse' spara alla 'tomma' områden på disken (under förutsättning att det är 'trimmad') och dels komprimeras övrig data hyfsat hårt vilket gör att även en disk på 1 TB-storlek med nyinstallerad windows på, kanske bara upptar kring 20-30 GB med reel diskutrymme när det hela är klart och ändå är en byte till byte-lika kopia när den senare läses och skrivs tillbaka till orginaldisken när man vill göra en återställning.

---

MS har egen image och återställningsprogram (med olika namn beroende på om det är windows för desktop eller för server) som i grunden skapar en VHDx-image av disken - men den går via shadow-copy och skapade diskimagen ser då ut i samma status som efter en strömavbrott vilket inte alltid är idealt och äldre program som inte räknar med 'plötslig strömavbrott' mitt under körningen som äldre DB-motorer kan få rejäla integritetsproblem med detta och man måste ladda tillbaka den nyaste existerande backuppen igen innan det hoppar igång igen. (och det bör man kolla innan man gör backup med MS egna program att återställningen faktiskt fungerar... vi har massor av sådan gammal skit snurrande på jobbet, med program som typ fyller 20 år och inget nyare finns som fungerar med det den skall övervakas...)

---

Är mjukvarorna man kör inte hårdvaruintensivt, kräver direktaccess till grafikkkort etc. (en del av accessen går att mickla till via VM ändå) utan kör det mesta via nätverk när det gäller kommunikation in/ut så kan man överväga att köra instansen i en VM-maskin man tycker sig ha koll på.

Dock att flytta en windows från en SSD i en dator till en VM-miljö så brukar det krävas en ny windows-licens då det blir en helt annan (emulerad) hårdvarusignatur.

jag måste tyvärr meddela att jag har väldigt lite kunskap om Linux och att jag inte förstår mycket av vad du skriver.

Permalänk
Medlem
Skrivet av Northpower97:

jag måste tyvärr meddela att jag har väldigt lite kunskap om Linux och att jag inte förstår mycket av vad du skriver.

Jo, men då är nog rescuezilla bra för dig. Den gör princip det ovan och mer därtill och det är Linux i botten fast med grafiskt interface.

Är rekommenderat att testa både save och restore - till en ny disk då så så inte originalet skulle sabbas om nåt går fel. Tex om du har bitlocker aktiverat så måste man ha återställningsnyckel mm.

Permalänk
Skrivet av SAFA:

Jo, men då är nog rescuezilla bra för dig. Den gör princip det ovan och mer därtill och det är Linux i botten fast med grafiskt interface.

Är rekommenderat att testa både save och restore - till en ny disk då så så inte originalet skulle sabbas om nåt går fel. Tex om du har bitlocker aktiverat så måste man ha återställningsnyckel mm.

Jag ska titta på det där. Tyvärr har jag just nu fullt upp med att mitt Facebook-konto hackats så jag har inte haft tid för något annat den senaste veckan.

Permalänk
Skrivet av xxargs:

Man får vänja sig att det är linux som gäller när man skall dribbla med diskimages och annat av mer lättbegriplig hantering och på 'idiotsäker' nivå (dvs. inte för många mekanismer i en kedja som kan krångla)

en sak som man alltid numera skall ta ut på windows-diskar är återställningsnyckeln för volymen då windows numera är 'snäll' och kör bitlocker på datorn utan att ha frågat dig...

det blir lite struligt annars om diskimagen skall läggas in på en ny lagring för att den gamla har gått sönder av någon anledning eller bytt ut hårdvara på annat sätt.

---

Om det tas från SSD/NVMe och windows kör TRIM på denna i bakgrunden så kan man spara en hel del diskimageplats (såvida disken inte är knökfylld), så kan en

'dd if=/dev/sdx of=/media/path/diskimage_datum.img conv=sparse ibs=1024k obs=4k status=progress'

skapa diskimagen som en fil på inkopplade lagringsdisken.

'sdx' kan vara någon av /dev/sda, sdb etc. eller nvme.. vilket man kollar med 'lsblk' innan man kör det

...och att man alltid kollar med lsblk strax innan körningen, då med en omstart mellan så kan diskarna ha bytt plats logiskt då den förste som blir klar är den som blir först i listan i BIOS

Med 'sparse' så lagras inte att block som är bara fyllda med '0' utan bara noteras i filsystemets metadatat (och 0-blocken återgenereras igen vid läsning - om det inte avsiktligt kopieras som just sparsefiler - tex. 'rsync' kan både generera och flytta sparsefiler inom datorn och mellan datorer och den vägen inte flytta områden med väldigt mycket sammanhängande '0' i överföringen)

Det jag dock noterat nyligen att när man gick över till kerneldriven NTFS i Linux så verkar inte sparse-skrivningen fungera mot NTFS-filsystem längre - det gjorde det när det körde med gamla FUSE-kopplade 3G-NTFS-drivrutinen innan...

Om man dessutom lagrar sin diskmagefil på en BTRFS-filsystemet (vilket är en säkrare och mer stryktålig form av filsystem på löstagbar median än med NTFS, som är enkel att ta sönder och innehållet blir oläsbar vid en glapp och/eller missgrepp med tex. USB-anslutningen... - IMHO) och en skapad mapp under BTRFS som man gör den komprimerande med 'chattr +c mappnamn' så dels slipper man med 'sparse' spara alla 'tomma' områden på disken (under förutsättning att det är 'trimmad') och dels komprimeras övrig data hyfsat hårt vilket gör att även en disk på 1 TB-storlek med nyinstallerad windows på, kanske bara upptar kring 20-30 GB med reel diskutrymme när det hela är klart och ändå är en byte till byte-lika kopia när den senare läses och skrivs tillbaka till orginaldisken när man vill göra en återställning.

---

MS har egen image och återställningsprogram (med olika namn beroende på om det är windows för desktop eller för server) som i grunden skapar en VHDx-image av disken - men den går via shadow-copy och skapade diskimagen ser då ut i samma status som efter en strömavbrott vilket inte alltid är idealt och äldre program som inte räknar med 'plötslig strömavbrott' mitt under körningen som äldre DB-motorer kan få rejäla integritetsproblem med detta och man måste ladda tillbaka den nyaste existerande backuppen igen innan det hoppar igång igen. (och det bör man kolla innan man gör backup med MS egna program att återställningen faktiskt fungerar... vi har massor av sådan gammal skit snurrande på jobbet, med program som typ fyller 20 år och inget nyare finns som fungerar med det den skall övervakas...)

---

Är mjukvarorna man kör inte hårdvaruintensivt, kräver direktaccess till grafikkkort etc. (en del av accessen går att mickla till via VM ändå) utan kör det mesta via nätverk när det gäller kommunikation in/ut så kan man överväga att köra instansen i en VM-maskin man tycker sig ha koll på.

Dock att flytta en windows från en SSD i en dator till en VM-miljö så brukar det krävas en ny windows-licens då det blir en helt annan (emulerad) hårdvarusignatur.

Du nämner i princip alla anledningar till varför man inte ska använda Windows

När det gäller att komprimera bort "nollor" så säger jag bara tar.gz FTW! Kör alla mina diskavbilder i tar.gz. Med BTRFS som filsystem är oanvänt utrymme borta. Går även att läsa på filnivå.

Visa signatur

Server: Fractal design Define 7 XL | AMD Ryzen 7 5800X 8/16 | ASUS ROG CROSSHAIR VIII DARK HERO | 64GB Corsair @ 3000MHz | ASUS Radeon RX 460 2GB | Samsung 960 PRO 512 GB M.2 | 2x 2TB Samsung 850 PRO SSD | 6x Seagate Ironwolf Pro 10TB
WS: Phantex Entoo Elite | AMD Ryzen Threadripper 1950X 16/32 | ASUS Zenith extreme | 128GB G.Skill @ 2400MHz | ASUS Radeon HD7970 | 3x 2TB Samsung 960PRO M.2 | 6x Seagate Ironwolf Pro 10 TB
NEC PA301W 30" @ 2560x1600 | Linux Mint 21.3 Cinnamon

Permalänk
Avstängd

Använda Windows 7's inbyggda verktyg för systemavbildning

Kontrollpanelen> System och säkerhet> Säkerhetskopiering och återställning

Permalänk
Skrivet av klockish:

Använda Windows 7's inbyggda verktyg för systemavbildning

Kontrollpanelen> System och säkerhet> Säkerhetskopiering och återställning

Den går ju också bra att använda. Kanske enklare än Rescuezilla?

Permalänk
Medlem

Prova att återställa från avbildningen på ny lagring¹ oavsett verktyg/metod, men kom ihåg att en snapshot-avbildning som med systemåterställning (via shadowcopy) i windows aldrig blir lika bra som en diskavbildning från en avstängd system som man gör med rescuezilla.

En icke verifierad systemåterställning/backup är ingen backup - bara falsk trygghet.

har du en linuxpartion eller annan för windows okänd partition på lagringen så kommer det heller inte med windows inbyggda systemavbildning.

¹windows återställning hade förr ibland problem om ersättningsdisken inte var exakt lika som den gamla både i avseende modell och storlek - men det är förhoppningsvis åtgärdat idag så länge ersättningsdisken är lika stor och större än orginalet- men det är också den orsaken varför man skall prova återställningen hela vägen och verkligen ser att det fungar.

Permalänk
Skrivet av xxargs:

windows återställning hade förr ibland problem om ersättningsdisken inte var exakt lika som den gamla både i avseende modell och storlek - men det är förhoppningsvis åtgärdat idag så länge ersättningsdisken är lika stor och större än orginalet- men det är också den orsaken varför man skall prova återställningen hela vägen och verkligen ser att det fungar.

Det är för sådant man kan använda Linux chroot. Vilket i praktiken innebär att man kan välja att köra rsync eller avbild till en ny disk och sedan lägga in boot och köra chroot på den nya disken. Arch Linux använder den metoden när man installerar från prompt (CLI).

Visa signatur

Server: Fractal design Define 7 XL | AMD Ryzen 7 5800X 8/16 | ASUS ROG CROSSHAIR VIII DARK HERO | 64GB Corsair @ 3000MHz | ASUS Radeon RX 460 2GB | Samsung 960 PRO 512 GB M.2 | 2x 2TB Samsung 850 PRO SSD | 6x Seagate Ironwolf Pro 10TB
WS: Phantex Entoo Elite | AMD Ryzen Threadripper 1950X 16/32 | ASUS Zenith extreme | 128GB G.Skill @ 2400MHz | ASUS Radeon HD7970 | 3x 2TB Samsung 960PRO M.2 | 6x Seagate Ironwolf Pro 10 TB
NEC PA301W 30" @ 2560x1600 | Linux Mint 21.3 Cinnamon

Permalänk
Skrivet av klockish:

Använda Windows 7's inbyggda verktyg för systemavbildning

Kontrollpanelen> System och säkerhet> Säkerhetskopiering och återställning

Vilka är fördelarna med Windows verktyg respektive Rescuezilla?

Permalänk
Medlem

Rescuezilla ger en komplett diskavbild i hur disken ser ut när datorn är avstängd.

Systemåterställning ger en diskavbild medans windows körs och i samma status som efter att man ryckt ur nätsladden ur datorn medans windows körs samtidigt - dessutom gör den bara partitionsavbilder i det som MS känner igen, inte en diskavbild (i princip bygger den VHDx-filer för var partition och sedan några headrar så att partitionerna kan återskapas på rätt ställe på nya disken och vilken maskinstatus det var när det hela initierades). - tex. om du har en linuxpartition också och en dualboot så kommer inte dessa med med systemavbildningen och det kan bli krångel med dualboot eller ersätts helt av windows egna boothandler när du senare gör en återställning.

- därav att det är så viktigt att prova detta på en blank ny disk innan du vet att återställningen fungerar som tänkt.

Till detta så är systemavbildningen en 'virtuell' partionsavbild som visas via VSS/shadowcopy och tex. filer som finns under 'System Volume Information' på datorns systempartition är inte samma som skapas i partitionsavbilden för att dölja shadow copys egna differensfiler i hur disken ser ut efter gjorda snapshot och andra föregående shadowcopy-snapshot och tex raderad data inom partitionen - då dessa är filer som tar extra diskplats om de skulle med en systemavbildning.

med andra ord är det en hel del som har en chans att kunna gå fel vid en systemavbildning, som inte händer när man gör en diskavbild med Rescuezilla eller diskimage tagen av 'dd/ddrescue' (vilket Rescuezilla använder sig av bakom sin gränssnitt)... KISS-principen är A och O och så enkla manövrar som det går för att kunna säkra en snabb återställning av en diskimage, MS egna systemavbildning är inte en sådan lösning, för mycket saker är involverad och saker modifieras på vägen och en del struntar man i (tex 'ledig' utrymme på partitionen tas inte med även om de innehåller gammal, ej raderad data) när systemavbildningen skapas och mycket kan trassla även senare.

Permalänk
Skrivet av xxargs:

Prova att återställa från avbildningen på ny lagring¹ oavsett verktyg/metod, men kom ihåg att en snapshot-avbildning som med systemåterställning (via shadowcopy) i windows aldrig blir lika bra som en diskavbildning från en avstängd system som man gör med rescuezilla.

En icke verifierad systemåterställning/backup är ingen backup - bara falsk trygghet.

har du en linuxpartion eller annan för windows okänd partition på lagringen så kommer det heller inte med windows inbyggda systemavbildning.

¹windows återställning hade förr ibland problem om ersättningsdisken inte var exakt lika som den gamla både i avseende modell och storlek - men det är förhoppningsvis åtgärdat idag så länge ersättningsdisken är lika stor och större än orginalet- men det är också den orsaken varför man skall prova återställningen hela vägen och verkligen ser att det fungar.

Skrivet av OldComputer:

Det är för sådant man kan använda Linux chroot. Vilket i praktiken innebär att man kan välja att köra rsync eller avbild till en ny disk och sedan lägga in boot och köra chroot på den nya disken. Arch Linux använder den metoden när man installerar från prompt (CLI).

Skrivet av xxargs:

Rescuezilla ger en komplett diskavbild i hur disken ser ut när datorn är avstängd.

Systemåterställning ger en diskavbild medans windows körs och i samma status som efter att man ryckt ur nätsladden ur datorn medans windows körs samtidigt - dessutom gör den bara partitionsavbilder i det som MS känner igen, inte en diskavbild (i princip bygger den VHDx-filer för var partition och sedan några headrar så att partitionerna kan återskapas på rätt ställe på nya disken och vilken maskinstatus det var när det hela initierades). - tex. om du har en linuxpartition också och en dualboot så kommer inte dessa med med systemavbildningen och det kan bli krångel med dualboot eller ersätts helt av windows egna boothandler när du senare gör en återställning.

- därav att det är så viktigt att prova detta på en blank ny disk innan du vet att återställningen fungerar som tänkt.

Till detta så är systemavbildningen en 'virtuell' partionsavbild som visas via VSS/shadowcopy och tex. filer som finns under 'System Volume Information' på datorns systempartition är inte samma som skapas i partitionsavbilden för att dölja shadow copys egna differensfiler i hur disken ser ut efter gjorda snapshot och andra föregående shadowcopy-snapshot och tex raderad data inom partitionen - då dessa är filer som tar extra diskplats om de skulle med en systemavbildning.

med andra ord är det en hel del som har en chans att kunna gå fel vid en systemavbildning, som inte händer när man gör en diskavbild med Rescuezilla eller diskimage tagen av 'dd/ddrescue' (vilket Rescuezilla använder sig av bakom sin gränssnitt)... KISS-principen är A och O och så enkla manövrar som det går för att kunna säkra en snabb återställning av en diskimage, MS egna systemavbildning är inte en sådan lösning, för mycket saker är involverad och saker modifieras på vägen och en del struntar man i (tex 'ledig' utrymme på partitionen tas inte med även om de innehåller gammal, ej raderad data) när systemavbildningen skapas och mycket kan trassla även senare.

Det blir nog att jag prövar med Rescuezilla då.

Vad gäller Linux så har jag väldigt lite kunskaper om detta. Vad jag sett så verkar det rätt krångligt.

Men om Windows 11 är eller blir sådant att det via Onedrive lagrar det som finns i min dator i något "moln" så är jag beredd att ge Linux en chans. Inget som jag har i datorn ska ut i något "moln" utan min tillåtelse.

Permalänk
Medlem
Skrivet av mrqaffe:

En klonad disk innehåller specifika drivrutiner och inställningar för hårdvaran och win gillar inte att flyttas mellan olika hårdvaror och en flytt kan därför skapa problem.
Själva installationen av win bör helst aldrig byta hårdvara men är det en spelmaskin är det inte heller nån känslig burk som bara måste fungera stabilt så ev problem gör kanske inte så mycket ?

Menar du Linux? För Windows har inga som helst problem med det. Bara att boota, vänta på att ny hårdvara identifieras och sen installeras det. Redan Windows 98 klarade det galant. Har bytt moderkort, cpu o grafikkort o bara startat om. Allt fungerade klockrent.

En brasklapp dock: jag har alltid använt välkända mainstream komponenter så det kanske har underlättat

Visa signatur

Processor: Motorola 68000 | Klockfrekvens: 7,09 Mhz (PAL) | Minne: 256 kB ROM / 512 kB RAM | Bussbredd: 24 bit | Joystick: Tac2 | Operativsystem: Amiga OS 1.3

Permalänk
Skrivet av talonmas:

Menar du Linux? För Windows har inga som helst problem med det. Bara att boota, vänta på att ny hårdvara identifieras och sen installeras det. Redan Windows 98 klarade det galant. Har bytt moderkort, cpu o grafikkort o bara startat om. Allt fungerade klockrent.

En brasklapp dock: jag har alltid använt välkända mainstream komponenter så det kanske har underlättat

Skulle säga att det är lättare i Linux än Windows att byta hårdvara och starta om, då Linux överhuvudtaget inte använder drivrutiner.

Skulle man dessutom använda "ny" hårdvara med Windows 7, som TS använder så har man extremt dålig kompatibilitet då Windows 7 inte klarar av USB 3, i alla fall inte utan handpåläggning av drivrutiner. Jag får exempelvis inte upp USB-3 portar eller SATA-portar på mina moderkort i Windows 7, utan måste ladda in dessa med drivrutiner.

Datorn använder i grunden vissa standarder. Exempelvis därför du kan köra vilket grafikkort som helst mot vilket moderkort som helst, i alla fall i teorin. Anledningen är att alla grafikkort är kompatibla med textläge och gamla standard som CGA, EGA och (S)VGA upplösningar.

Det Linux gör när det startar är att systemet installeras (byggs) varje gång datorn startar. Det här sker på ca 1 - 3 sekunder från en snabb SSD. Anledningen till att det fungerar är just att Linux är kärnan och varken grafikhanteringen, skrivbordsmiljön eller programvara vet något eller bryr sig om hårdvaran. Allt som frågas från program är standardfrågor och antingen finns det en passande fil, eller så finns den inte.

Just det här med filer i Linux är att allt i Linux är en fil, Ditt grafikkort är en fil, din partition är en fil, din hårddisk är en fil. ditt ljudkort är en fil. Din CPU är en fil etc etc. med andra ord skulle du ha en sådan här gammal högtalare / summer som ger pip när datorn startar / felkod så kan du spela upp en fil och få ljud genom att kopiera / skriva ut filen till den.

En sak som fungerar i Linux fungerar. Finns den inte i kärnan så fungerar den inte. Punkt. Windows fungerar lite annorlunda, där är drivrutiner en mellanhand mellan Windows-kärnan och gränssnittet. Vilket gör att systemet blir osäkrare då uppdateringar gör systemet mer riskabelt, tar mer RAM samt att drivrutiner inte kan uppdateras under drift. På senare tid har väl MS försökt får in grafiken "närmare" kärnan för bättre stabilitet.

I Linux är en öppen fil låst. dvs den version som används ändras inte, som en klonad version. Därför man kan uppdatera programvara och dll:er som hanterar anrop under drift utan att starta om. Använder ett program en dll så är filen låst tills dess att inget program använder den. Nu mera rekommenderas det att man startar om när man installerar, just för att få så nytt som möjligt överallt. Men man behöver inte göra omstarten under drift.

En stor skillnad mellan Linux och Windows är att Linux har bara ett filträd, dvs / (snedstreck), medans Windows har en bokstav för varje fysisk partition.
Den stora skillnaden här är att Linux alltid "vet" vad som är installerat, kan hämta det som behövs och utvecklare vet om platsen är upptagen eller inte.

Det är även extremt lätt att byta en disk, ändra storlek eller vid behov ändra utseendet. Skulle du upptäcka att din 4TB disk inte räcker till så klonar du bara innehållet till en temporär katalog där du för tillfället har en större disk. Pekar om den gamla katalogen till den nya disken och startar om datorn. Klart. Är det katalog som är privat eller i alla fall inte systemkritisk så kan du göra det utan att starta om datorn. Har du en maskin som klarar hotswap på diskar så behöver du inte ens stänga av datorn.

Dynamiska länkbibliotek (dll:er) används även av Windows, även om dom är olika i grunden. En ren DLL ska inte blandas ihop med en drivrutin. Även om det gärna görs i Windows. I bland lite hej vilt. Just det här med att Windows inte har någon regel för hur en installation ser ut så kan det även finnas onödiga kopior av samma dll, vilket är paradox, eftersom en dll just är avsedd att användas av flera program för att göra standardanrop som exempelvis rita ett fönster.

Använder du dator privat och brukar stänga av under natten är det just rätt tillfälle att starta om.

Med nyaste linux-kärnan skulle du i princip kunna starta en 286/386-dator. Om du kan få den i 16-bit version. Risken är väl att gränssnitt etc kräver mer än vad datorn klarar. Men att starta den från en prompt borde gå. Den första 64-bitars CPU:n går absolut att köra.

Sedan är Windows låst / hemligt medans Linux är öppet och fritt, vilket gör det mycket lättare att hantera Linux. Men det tar vi någon annan gång.

Visa signatur

Server: Fractal design Define 7 XL | AMD Ryzen 7 5800X 8/16 | ASUS ROG CROSSHAIR VIII DARK HERO | 64GB Corsair @ 3000MHz | ASUS Radeon RX 460 2GB | Samsung 960 PRO 512 GB M.2 | 2x 2TB Samsung 850 PRO SSD | 6x Seagate Ironwolf Pro 10TB
WS: Phantex Entoo Elite | AMD Ryzen Threadripper 1950X 16/32 | ASUS Zenith extreme | 128GB G.Skill @ 2400MHz | ASUS Radeon HD7970 | 3x 2TB Samsung 960PRO M.2 | 6x Seagate Ironwolf Pro 10 TB
NEC PA301W 30" @ 2560x1600 | Linux Mint 21.3 Cinnamon

Permalänk
Medlem
Skrivet av talonmas:

Menar du Linux? För Windows har inga som helst problem med det. Bara att boota, vänta på att ny hårdvara identifieras och sen installeras det. Redan Windows 98 klarade det galant. Har bytt moderkort, cpu o grafikkort o bara startat om. Allt fungerade klockrent.

En brasklapp dock: jag har alltid använt välkända mainstream komponenter så det kanske har underlättat

Om det där funkar beror på hur lika moderkorten/komponenterna är.
Försökte en gång flytta en win7 disk från en Dell optiplex 390 till en optiplex 755. Gick inte alls. Automatic repair försökte nån timme innan den gav upp.

En annan gång skulle jag på en Win10 dator boota ett gammalt system så fick ställa om SATA från AHCI till legacy för att det skulle boota. Glömde ställa tillbaka innan jag startade W10 som genast installerade lite drivrutiner. När jag sen ställde tillbaka till AHCI så blev det BSOD på W10. Blev en massa jobb med att rensa bort drivrutiner för att slippa "resetta".

Att däremot flytta Win7 från en HP-probook till en HP-elitebook gick utan problem.

Permalänk
Medlem
Skrivet av OldComputer:

Skulle säga att det är lättare i Linux än Windows att byta hårdvara och starta om, då Linux överhuvudtaget inte använder drivrutiner.

Skulle man dessutom använda "ny" hårdvara med Windows 7, som TS använder så har man extremt dålig kompatibilitet då Windows 7 inte klarar av USB 3, i alla fall inte utan handpåläggning av drivrutiner. Jag får exempelvis inte upp USB-3 portar eller SATA-portar på mina moderkort i Windows 7, utan måste ladda in dessa med drivrutiner.

Datorn använder i grunden vissa standarder. Exempelvis därför du kan köra vilket grafikkort som helst mot vilket moderkort som helst, i alla fall i teorin. Anledningen är att alla grafikkort är kompatibla med textläge och gamla standard som CGA, EGA och (S)VGA upplösningar.

Det Linux gör när det startar är att systemet installeras (byggs) varje gång datorn startar. Det här sker på ca 1 - 3 sekunder från en snabb SSD. Anledningen till att det fungerar är just att Linux är kärnan och varken grafikhanteringen, skrivbordsmiljön eller programvara vet något eller bryr sig om hårdvaran. Allt som frågas från program är standardfrågor och antingen finns det en passande fil, eller så finns den inte.

Just det här med filer i Linux är att allt i Linux är en fil, Ditt grafikkort är en fil, din partition är en fil, din hårddisk är en fil. ditt ljudkort är en fil. Din CPU är en fil etc etc. med andra ord skulle du ha en sådan här gammal högtalare / summer som ger pip när datorn startar / felkod så kan du spela upp en fil och få ljud genom att kopiera / skriva ut filen till den.

En sak som fungerar i Linux fungerar. Finns den inte i kärnan så fungerar den inte. Punkt. Windows fungerar lite annorlunda, där är drivrutiner en mellanhand mellan Windows-kärnan och gränssnittet. Vilket gör att systemet blir osäkrare då uppdateringar gör systemet mer riskabelt, tar mer RAM samt att drivrutiner inte kan uppdateras under drift. På senare tid har väl MS försökt får in grafiken "närmare" kärnan för bättre stabilitet.

I Linux är en öppen fil låst. dvs den version som används ändras inte, som en klonad version. Därför man kan uppdatera programvara och dll:er som hanterar anrop under drift utan att starta om. Använder ett program en dll så är filen låst tills dess att inget program använder den. Nu mera rekommenderas det att man startar om när man installerar, just för att få så nytt som möjligt överallt. Men man behöver inte göra omstarten under drift.

En stor skillnad mellan Linux och Windows är att Linux har bara ett filträd, dvs / (snedstreck), medans Windows har en bokstav för varje fysisk partition.
Den stora skillnaden här är att Linux alltid "vet" vad som är installerat, kan hämta det som behövs och utvecklare vet om platsen är upptagen eller inte.

Det är även extremt lätt att byta en disk, ändra storlek eller vid behov ändra utseendet. Skulle du upptäcka att din 4TB disk inte räcker till så klonar du bara innehållet till en temporär katalog där du för tillfället har en större disk. Pekar om den gamla katalogen till den nya disken och startar om datorn. Klart. Är det katalog som är privat eller i alla fall inte systemkritisk så kan du göra det utan att starta om datorn. Har du en maskin som klarar hotswap på diskar så behöver du inte ens stänga av datorn.

Dynamiska länkbibliotek (dll:er) används även av Windows, även om dom är olika i grunden. En ren DLL ska inte blandas ihop med en drivrutin. Även om det gärna görs i Windows. I bland lite hej vilt. Just det här med att Windows inte har någon regel för hur en installation ser ut så kan det även finnas onödiga kopior av samma dll, vilket är paradox, eftersom en dll just är avsedd att användas av flera program för att göra standardanrop som exempelvis rita ett fönster.

Använder du dator privat och brukar stänga av under natten är det just rätt tillfälle att starta om.

Med nyaste linux-kärnan skulle du i princip kunna starta en 286/386-dator. Om du kan få den i 16-bit version. Risken är väl att gränssnitt etc kräver mer än vad datorn klarar. Men att starta den från en prompt borde gå. Den första 64-bitars CPU:n går absolut att köra.

Sedan är Windows låst / hemligt medans Linux är öppet och fritt, vilket gör det mycket lättare att hantera Linux. Men det tar vi någon annan gång.

Jo, Linux använder drivrutiner. De kan antingen vara inkompilerade i kärnan eller så ligger de som moduler (typiskt under /lib/modules...) och vid boot så laddas de moduler som behövs.

För att Linux ska komma igång behövs eg bara drivrutiner för att komma åt root-partitionen. Drivrutiner för skärm (i textmod) samt tangentbord alternativt nätverk behövs om man vill kunna göra något också.

Och Linux har aldrig gått att köra på en 286:a, 386 är minimum, men man får nog leta upp en 20+ år gammal distro för att den ska gå att installera på en 386:a