RAID1 för Server-OS. Bytt Disk, men WTF?
Tjo,
Jag har fått lite problem med min hemma-server och dess hårdvaru-RAID.
First things first, hårdvaran:
Moderkort: Supermicro X9SRL-F
CPU: Intel Xeon E5-1620 / 3.6 GHz
RAM: 2 x KINGSTON 16GB 1600MHZ DDR3 ECC REG
HDD-controller: LSI SAS 9211-8i RAID Controller 6Gb/s PCI-Express
Storage: 6 x Seagate Barracuda 3TB (körs med ZFS)
OS: 2 st SATA-diskar (Seagate) i moderkortets RAID1
Det hela började med att i stort sett alla tjänster (ssh, samba etc) slutade fungera. Jag försökte då logga in via IPMI men den terminalen spottade bara ur sig ett par error-meddelanden med jämna mellanrum. En omstart var given. Där möttes jag dock av detta:
Jag drog efter ännu en omstart slutsatsen att min 500GB-disk hade pajat.
Jag skaffade snabbt och lätt en ny, på 1TB, och startup-infon gav då detta istället:
So far, so good!
När servern fick fortsätta med uppstarten landade den dock i en initramfs-console:
Detta verkade lite lustigt. Jag knappade några meningslösa kommandon och funderade en kort stund. Omstart igen. Men nu var det kört, den ville inte starta alls. Den gick istället bara vidare i boot-sekvensen och verkade helt omedveten om mina OS-diskar i RAIDen:
Många frågetecken:
Intel RAID-skärmen visar "Rebuild" och "Volumes with "Rebuild" status will be rebuilt within the operating system." Är detta korrekt beteende?
Varför kan den inte rebuilda direkt, kanske via en option i menyn?
Det känns som ett moment-22: Kan inte boota OS pga fel i RAID, men behöver boota OS för att laga RAID. Är det inte alls meningen att man ska köra ett OS i denna typ av setup?
Hur kan jag gå vidare och få ordning på denna RAID? Jag vill förstås undvika att behöva ominstallera hela systemet.
Var det något fel jag kan ha gjort i skapandet av RAIDen som gjorde att jag hamnade här? Om jag måste ominstallera är jag ju inte direkt sugen på att köra samma setup ifall jag inte kan undvika samma situation i framtiden.
// eZZe