Hjälp, partitioner borta [LVM/RAID5]

Permalänk
Medlem

Hjälp, partitioner borta [LVM/RAID5]

Något har slagit slint på min server och jag skulle behöva hjälp med att se om det går att återställa datan då jag är inte supervass på det här med filsystem och partitioner.

Jag har tre diskar som är mountade med LVM (/dev/sdc, /dev/sdd och /dev/sde), och sedan Linux Raid 5 (/dev/md0) ovanpå det. När jag bootade om servern idag saknades alla Volume Groups, Logical Volumes samt Physical Volumes.

När jag kör 'fdisk -l' får jag följande tillbaks:

Disk /dev/sdd: 2999.0 GB, 2998960914432 bytes
255 heads, 63 sectors/track, 364602 cylinders, total 5857345536 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

Disk /dev/sdd doesn't contain a valid partition table

Disk /dev/sdc: 2999.0 GB, 2998960914432 bytes
255 heads, 63 sectors/track, 364602 cylinders, total 5857345536 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

Disk /dev/sdc doesn't contain a valid partition table

Disk /dev/sde: 2999.0 GB, 2998960914432 bytes
255 heads, 63 sectors/track, 364602 cylinders, total 5857345536 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

Disk /dev/sde doesn't contain a valid partition table

Disk /dev/mapper/group0-dataCache: 21.4 GB, 21369978880 bytes
255 heads, 63 sectors/track, 2598 cylinders, total 41738240 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

Disk /dev/mapper/group0-dataCache doesn't contain a valid partition table

Har googlat runt för att hitta en lösning, men snubblar inte över något bra.

Någon som kan hjälpa till?

Permalänk
Medlem

Vad säger mdadm?

Permalänk
Medlem

Vad säger pvs vgs å lvs?

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Danne:

Vad säger mdadm?

Skrivet av theailer:

Vad säger pvs vgs å lvs?

Skickades från m.sweclockers.com

Inser att jag började lite i fel ände när jag felsökte med fdisk. Har efter ett par dagars felsökande lyckats lösa problemet. Det visade sig att LVM hade tappat bort min logical volume. Kommandon som pvscan och lvscan visade därför bara att det inte fanns någonting där. Jag hade börjat ge upp hoppet när jag upptäckte att det fanns backups av min volume group i /etc/lvm/archive (för vissa kan dessa backups ligga i /etc/lvm/backups).

Jag återställde denna genom kommandot nedan, där group0_00008-621465970.vg är backupfilen och group0 namnet på min volume group.

sudo vgcfgrestore -f /etc/lvm/archive/group0_00008-621465970.vg group0

Jag vet fortfarande inte vad det var som orsakade felet från början, men jag hoppas att någon annan kan ha nytta av lösningen.

Permalänk
Hedersmedlem

Har du kollat smart på dina diskar. Du kan ha fått fel på sektorerna där denna information sparas. Incidenten kan vara en signal på att en eller flera diskar börjar ge sig.

Visa signatur

Använd gilla för att markera nyttiga inlägg!

Permalänk
Medlem
Skrivet av giplet:

Har du kollat smart på dina diskar. Du kan ha fått fel på sektorerna där denna information sparas. Incidenten kan vara en signal på att en eller flera diskar börjar ge sig.

Ja en disk har gett upp tidigare som jag då bara gjort en rebuild på så har den fungerat igen, men den verkar vara på väg att dö helt. Har beställt ny. Trodde dock inte den skulle kunna ta med sig hela array-setupen. Ska göra en del hälsokontroller på dem så fort jag har återställt redundancy i arrayen. Tänkte köra en runda med smartmontools. Något annat verktyg som rekommenderas?

Edit: Kom på att det kanske inte går så bra att köra vanliga verktyg då min ubuntu server körs i ESXi, och hårddiskarna accessas via ESXi-stores. Hur bör jag gå tillväga för att kontrollera hälsan på diskarna i en sådan miljö?

Permalänk
Medlem

Om en RAID slänger ut en disk så ska du inte rebuilda med den disken som är utslängd utan att utföra ett fullständig kontroll på den. Det är bara dumt.

Samt se till att ha backup på dina filer ifall något liknande skulle hända igen. Samt en hotspare skadar inte. Eller en ny disk liggandes i närheten som är redo att monteras.

Permalänk
Medlem
Skrivet av Danne:

Om en RAID slänger ut en disk så ska du inte rebuilda med den disken som är utslängd utan att utföra ett fullständig kontroll på den. Det är bara dumt.

Självklart är det så. Det var egentligen en quickfix i förhoppning att kunna ha den igång när jag var bortrest under juldagarna, hade tänkt undersöka disken närmare när jag fick tid. Dock hann jag inte det innan det small igen innan nyår.

Skrivet av Danne:

Samt se till att ha backup på dina filer ifall något liknande skulle hända igen. Samt en hotspare skadar inte. Eller en ny disk liggandes i närheten som är redo att monteras.

Jo jag har ju backup på det viktigaste såklart, så det är bara mediabiblioteket som ryker om jag inte skulle kunna återställa. Det är ju väldigt tråkigt iom att det är på ett par TB och tar ett tag att bygga upp igen, men inget livsviktigt. Med en hotspare antar jag att du menar en disk som sitter i, men inte är aktiv. Korrekt?

Permalänk
Medlem

Precis. En spare är en reserv som är inaktiv tills en av dom andra går sönder, och då hoppar spare disken in och arrayen rebuildas. Sen är det bara till att byta ut den trasiga.

Permalänk
Medlem

Istället för hotspare hade jag valt att lägga till en disk och köra en reshape till Raid-6 på arrayen. Då slipper du risken för ytterligare fel som kan uppstå under rebuild tiden på en Raid-5 array. Har faktiskt råkat ut för detta en gång, när en disk pajjade och jag ersatte den med en ny visade det sig att det var fel på ytterligare en disk som kröp fram när man började hamra den men en rebuild. Hade jag haft dubbel paritet hade jag klarat mig den gången.

Permalänk
Medlem
Skrivet av ddelin:

Istället för hotspare hade jag valt att lägga till en disk och köra en reshape till Raid-6 på arrayen. Då slipper du risken för ytterligare fel som kan uppstå under rebuild tiden på en Raid-5 array. Har faktiskt råkat ut för detta en gång, när en disk pajjade och jag ersatte den med en ny visade det sig att det var fel på ytterligare en disk som kröp fram när man började hamra den men en rebuild. Hade jag haft dubbel paritet hade jag klarat mig den gången.

Det stämmer bra. Det är även därför man sätter upp schemalagda kontroller på diskarna och arrayen så att fel upptäcks innan det går åt skogen.