Intel RST och Raid 1 som slutat fungera efter strömavbrott

Permalänk
Medlem

Intel RST och Raid 1 som slutat fungera efter strömavbrott

I min dator så hade jag satt upp en Raid 1 via mitt bios (Intel RST på ett Z370 moderkort)
Hade ett strömavbrott nyligen och nu så hittar den diskarna i bios men står NON-RAID på dessa och jag kan ej kombinera ihop dem till raid 1 igen.
I Windows så hittar inte varken intel RST eller Diskhantering mina Raid:ade diskar.
Datorn tar för övrigt 10min längre att starta upp, drar jag ur diskarna så startar datorn upp "som vanligt".

Har provat att uppdatera BIOS men utan framgång. Har även provat att stänga av CSM men då går det ej att ta sig in i windows.
Hjälper heller inte att dra ut en av diskarna.

Tips?

Permalänk

Välkommen till den underbara baksidan av moderkortsbaserad fakeraid. Om du inte har backuper och kan bygga om ditt raid från scratch har du egentligen två eller tre val: Kolla märkesspecifika fora i första hand för att se om någon har tips. Sekundärt, boota en räddningdistribution av Linux och se om den förstår ditt diskinnehåll på ena eller andra disken. Tertiärt, köp ett identiskt moderkort och se om du kan få det att känna igen din gamla RAID-konfiguration.

För framtiden:
- RAID är inte något som ersätter backuper.
- När du dubblar antalet diskar under dina logiska volymer dubblar du också risken att någon av dem pajar under en given tidsperiod.
- Fakeraid är sämre än alla andra former av RAID då det har nackdelarna av både hårdvaruraid och mjukvaruraid: en unik konfiguration som sannolikt inte kommer fungera med annan hårdvara, samtidigt som ingenting avlastar I/O-trafiken från din CPU.

Permalänk
Medlem

Nu hade jag väldigt tur då diskarna är 1 månad gammal och mina gamla diskar med "samma info" finns kvar.

Nu är frågan mer om det är möjligt att få liv i dessa diskar på något sätt (då de i dagsläget trottlar sata bussen) eller om det är dags att använda garantin och skicka tillbaka skräpet?
Provade via mitt bios (ASUS) secure erase, men den gnäller att disken är låst. (kör en i taget)
Provade även att köra Samsung secure erase men den hittar inte ens disken.

Om nu dessa diskar är brickade så kan jag varmt rekommendera att ALDRIG köpa Samsung 870 QVO.

Permalänk
Hedersmedlem

Har du ledig plats på någon annan disk att klona över en av de två RAID-diskarna? Isåfall skulle jag som första steg klona över allt till en imagefil nånstans, och sedan efter det försöka köra dataräddning på en av RAID-diskarna (andra punkten i svaret ovan).
Då kan du alltid gå tillbaka till utgångspositionen utan någon risk för dataförlust.

Eftersom det är RAID1 så känns det väl rätt troligt att all data finns på disken i vettigt format, bara att partitionstabellen är knas osv.

I detta inlägg lyckades en person rädda med testdisk, vilket också är det första jag skulle testa:
https://askubuntu.com/questions/1257910/recover-single-disk-f...

... fast som sagt helst EFTER att man tagit backup på allt innehåll, bit för bit.

Permalänk
Medlem
Skrivet av Big Al:

Nu hade jag väldigt tur då diskarna är 1 månad gammal och mina gamla diskar med "samma info" finns kvar.

Nu är frågan mer om det är möjligt att få liv i dessa diskar på något sätt (då de i dagsläget trottlar sata bussen) eller om det är dags att använda garantin och skicka tillbaka skräpet?
Provade via mitt bios (ASUS) secure erase, men den gnäller att disken är låst. (kör en i taget)
Provade även att köra Samsung secure erase men den hittar inte ens disken.

Om nu dessa diskar är brickade så kan jag varmt rekommendera att ALDRIG köpa Samsung 870 QVO.

Troligen är det ingen fel på dina SSD men din fake-RAID går tokig för att det står något dumt på första sektorn i SSD som säger att det är en Raid men ändå inte och därför blir inte disken synlig i BIOS då den inte skapar någon virtuell disk som låtsas vara fysisk disk och du får en massa lagg och korta låsningar då din fake-RAID ändå försöker med något. - och förmodligen är det din fake-RAID som också skrivit sönder början av disken då det inte allt för sällan kontroller/styrkretsar går tokig i just momentet när de får för låg spänning mitt under en skrivning - jag känner till USB/SATA-konverter för extern USB-disk som kan göra väldigt illa saker i sådan situation.

Om du flytta SSD/disk till annan dator med MB som inte har intels fake-RAID (tex. många laptop) - är det problem att komma åt diskarna den vägen? - eller via en USB-docka under linux - windows kommer inte att se något då allt som MBR/GPT är förskjutet ett antal MB högre upp LBA-adressmässigt då RAID reserverar själv ett antal sektorer på diskens början och sedan gör en virtuell volym av resten som startar först en bit upp på den fysiska disken.

Security erase är en komplicerad historia som innebär i förloppet att SSD skall göras strömlös och sedan aktiveras igen medans programmet körs - och kan endast göras via SATA-bus och att du kan plocka ur disken medans datorn är igång eller koppla loss diskens strömförsörjning och sedan sätta tillbaka igen - man får inte stänga av datorn, starta om programmet eller andra dumheter under processen gång då man kan få en permanentlåst disk - och det tror jag inte tas tillbaka på garantin då det är självförvållat.

I regel brukar sagda diskprogrammet generera en bootbar USB-sticka som man sedan skall starta upp på och följa instruktionerna att välja rätt enhet och sedan följa förfarande för security erase av sagda disk och inte helt förvånande så är den bootbara stickan med linux som kör ett script då det gäller att hålla tungan rätt i mun när man gör security erase på SATA-diskar.

---

För framtiden så bör du ha en UPS på den dator som kör fake-RAID och om du har diskarnas write-cache aktiverade (alla har det för prestandan, men orsakar att haveriet när det havererar blir så svåra att dataträdda ur diskarna efteråt) har du disk-cache avstängd på diskarna så blir konsekvensen mindre vid strömavbrott men du tappar också prestanda då disken inte skickar kvitto innan sektorn verkligen är skriven och först då ny data kan matas in till disken för nästa skrivning.

Alternativt en riktig diskkontroller med egen batteribackupad skrivcache och kör mot diskarna med sina write-cache avstängda (HW-RAID-kort brukar göra det automatiskt och riktiga Enterprise snurrdiskar har ingen skrivcache alls - dvs. den kvitterar inte i förväg att datat är skrivet på skrivytan fast den ännu inte är skriven som diskar med skrivcache aktivt gör)

Permalänk
Medlem
Skrivet av xxargs:

Troligen är det ingen fel på dina SSD men din fake-RAID går tokig för att det står något dumt på första sektorn i SSD som säger att det är en Raid men ändå inte och därför blir inte disken synlig i BIOS då den inte skapar någon virtuell disk som låtsas vara fysisk disk och du får en massa lagg och korta låsningar då din fake-RAID ändå försöker med något. - och förmodligen är det din fake-RAID som också skrivit sönder början av disken då det inte allt för sällan kontroller/styrkretsar går tokig i just momentet när de får för låg spänning mitt under en skrivning - jag känner till USB/SATA-konverter för extern USB-disk som kan göra väldigt illa saker i sådan situation.

Om du flytta SSD/disk till annan dator med MB som inte har intels fake-RAID (tex. många laptop) - är det problem att komma åt diskarna den vägen? - eller via en USB-docka under linux - windows kommer inte att se något då allt som MBR/GPT är förskjutet ett antal MB högre upp LBA-adressmässigt då RAID reserverar själv ett antal sektorer på diskens början och sedan gör en virtuell volym av resten som startar först en bit upp på den fysiska disken.

Security erase är en komplicerad historia som innebär i förloppet att SSD skall göras strömlös och sedan aktiveras igen medans programmet körs - och kan endast göras via SATA-bus och att du kan plocka ur disken medans datorn är igång eller koppla loss diskens strömförsörjning och sedan sätta tillbaka igen - man får inte stänga av datorn, starta om programmet eller andra dumheter under processen gång då man kan få en permanentlåst disk - och det tror jag inte tas tillbaka på garantin då det är självförvållat.

I regel brukar sagda diskprogrammet generera en bootbar USB-sticka som man sedan skall starta upp på och följa instruktionerna att välja rätt enhet och sedan följa förfarande för security erase av sagda disk och inte helt förvånande så är den bootbara stickan med linux som kör ett script då det gäller att hålla tungan rätt i mun när man gör security erase på SATA-diskar.

---

För framtiden så bör du ha en UPS på den dator som kör fake-RAID och om du har diskarnas write-cache aktiverade (alla har det för prestandan, men orsakar att haveriet när det havererar blir så svåra att dataträdda ur diskarna efteråt) har du disk-cache avstängd på diskarna så blir konsekvensen mindre vid strömavbrott men du tappar också prestanda då disken inte skickar kvitto innan sektorn verkligen är skriven och först då ny data kan matas in till disken för nästa skrivning.

Alternativt en riktig diskkontroller med egen batteribackupad skrivcache och kör mot diskarna med sina write-cache avstängda (HW-RAID-kort brukar göra det automatiskt och riktiga Enterprise snurrdiskar har ingen skrivcache alls - dvs. den kvitterar inte i förväg att datat är skrivet på skrivytan fast den ännu inte är skriven som diskar med skrivcache aktivt gör)

Tackar för ett bra svar.
Disk cache var avstängt men det verkar inte ha hjälpt...
Har ups och riktig server med hw raid (HP proliant) för de riktigt viktiga filerna. Dessa diskar var för min stationära dator där filer som "är dryga att ersätta" fick vara.
Hade ingen koll på att intel rst var fake raid, det fick man bittert förstå nu.
Börjar inse att det går nog rädda diskarna om de raderas på en dator utan fake raid bios som du säger. Helt ärligt så lägger jag nog inte ner den energin på att rädda dem utan de åker i soporna och jag köper några nya diskar till servern och kör nätverksdisk i framtiden.

Permalänk
Skrivet av Big Al:

Tackar för ett bra svar.
Disk cache var avstängt men det verkar inte ha hjälpt...
Har ups och riktig server med hw raid (HP proliant) för de riktigt viktiga filerna. Dessa diskar var för min stationära dator där filer som "är dryga att ersätta" fick vara.
Hade ingen koll på att intel rst var fake raid, det fick man bittert förstå nu.
Börjar inse att det går nog rädda diskarna om de raderas på en dator utan fake raid bios som du säger. Helt ärligt så lägger jag nog inte ner den energin på att rädda dem utan de åker i soporna och jag köper några nya diskar till servern och kör nätverksdisk i framtiden.

Jag kanske är dum, men varför slänga dem i soporna?

Blev lite nyfiken, och hittade ett gammalt blogginlägg som någon skrivit om att rädda data från ett korrupt RST-baserat RAID0, vilket naturligtvis är betydligt mer komplext än att rädda ett RAID1, eftersom informationen ligger flätad mellan diskarna istället för att vara speglad mellan dem som i din situation.

Alltså: Boota en linuxdistro, se vad den ser på minst en av dina diskar. Kopiera ut diskarna block för block till annan lagring så du kan experimentera utan att riskera att tappa data. Återställ din data, nollställ diskarna, och försök sen använda dem i Windows igen; den här gången med Windows eget mjukvaru-RAID, eller som separata diskar. Investera sen i bättre backup så du inte får problem nästa gång en lagringskomponent felar.

Permalänk
Medlem

Redan provat i Linux(Ubuntu) diskarna fick felmeddelande vid montering.
Kanske går det montera själv eller på annat sätt tömma dem, men nu har jag lagt nog med energi på dessa diskar.

Permalänk
Medlem

Fast man försöker inte montera dem i det stadiet - man gör en diskimage av detta i RAW om innehållet är viktig och vill försöka rädda dem senare. - är det RAID1 bör du kunna hitta NTFS-filsystemet med dina filer längre bak i disken/diskimagen - se längre ned i inlägget.

Sedan för att göra disken användbar igen (dvs windows diskmanager hittar den) så skriver man början av disken med '0' med "dd if=/dev/zero of=/dev sdx bs=1024k count=10" (och sdx är någon av sdb, sdc etc. som tidigare identifierats med 'lsblk' så att du raderar rätt disk och inte din OS-systemdisk...) så att moderkorten inte längre tror att disken tillhör en raid-konfiguration utan att det istället tolkas som en tom disk som windows senare kan formatera och skapa filsystem på.

Obs ovanstående, att både göra diskimage och sedan radera början av disken måste göras på en dator som inte har Intels RST/RAID-system aktiverat, som annars hugger disken innan den blir synlig i BIOS och om den kan, visare en virtuell disk istället och de första sektorerna är då gömda och kan inte skrivas över.

Det fungerar kanske att göra via en USB-diskdocka då disken förhoppningsvis inte integreras av intels RAID-system även om första sektorerna säger att disken tillhör en sådan.

Situationen är inte mer annorlunda än att du fått korrupt MBR/GPT och windows känner inte igen disken.

Är partitionen borta eller det hela är förskjutet i någon ytterligare partitions/RAID-kapsling och man vet att NTFS förhoppningsvis finns där någonstans - så kan man försöka leta efter starten på NTFS-filsystemet

Då kan man med cat och grep försöka hitta ett magic number "NTFS " - observera att 4 mellanslag ingår i magick number efter NTFS (försvinner i forum-visningen)

cat /mnt/diskimage_av_sdc | grep -a -o -b "NTFS "

första träffen bruka gå ganska fort och ser liknande:

524291:NTFS
126677916:NTFS
314879600:NTFS
535166206:NTFS
535226276:NTFS
1174170136:NTFS

Ser man på tex https://en.wikipedia.org/wiki/NTFS en bit ned under rubriken "Partition Boot Sector (VBR)"

så ser man att 'N' i "NTFS " är på position 0x03. - alltså fjärde positionen från starten av NTFS-filsystemet och skall backas 3 steg för position 1 (0x00)

det betyder att "524291:NTFS" som var den första raden som spottades så skall dess byte-värde minskas med 3

dvs 524291 - 3 = 524288 - och kan då monteras med

mount -t ntfs /mnt/diskimage_av_sdc /mnt1 -o loop,offset=524288,ro

Lyckas det så har du NTFS monterat i Read-only mode under /mnt1 och du kan kopiera ut dina filer.

Fungerar det inte så prova nästa post i listan