Hårdvaruraid vs ZFS, på hemmabygge?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av jookeer
Någon som har en uppfattning om NCQ/TCQ ger något extra - det var ju ganska "hypat" när det kom men under senare tid har man inte hört så mycket. I teorin skall det ju optimera armrörelserna då det finns flera utestående accesser i I/O-kön. I praktiken kanske det inte betyder så mycket för hemmaservrar?!

SATA NCQ är ett *krav* för att alla filsystem (inkl erat älskade ZFS) inte ska tappa data vid strömavbrott (om man kör med skrivcache vill säga, men utan det går det extremt långsamt).

Det finns helt enkelt inget annat sätt att veta vad som egentligen skrivits till disken eller inte.

Visa signatur

Main Core i9-9900k | NH-D15 | ROG STRIX Z390-F | 16GB DDR4 3200 MHz LPX | STRIX 2080 Ti GAMING OC | Samsung 970 EVO 1TB + Toshiba XG5 256GB | RM650X | R5 Blackout
HTPC/Barndator: Core i5-8400 | ASUS PRIME B360M-A | 16GB DDR4 2666 MHz | STRIX GTX 1070 OC | 2 x Toshiba XG5 256GB
Extradator: Core i7 870 | ASRock H55M-LE | 8GB 1600 MHz | Intel 320 120GB | HD6950 2GB | VX 550W

Permalänk
Avstängd

Jasså? Intressant! Hur funkar det, varför är det ett krav?

Blir lite orolig. Vet inte om jag har slagit på NCQ på mina diskar...

PS. Visar använd bandbredd på varje disk:
zpool iostat -v tank 5

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av saddam
Jasså? Intressant! Hur funkar det, varför är det ett krav?

Blir lite orolig. Vet inte om jag har slagit på NCQ på mina diskar...

Om du har en SATA-disk i IDE-läge med skrivcache på kommer alla skrivoperationer att returnera direkt (tills man fyller den interna kön) och hårddisken kan skriva ner dessa i vilken ordning den vill och när den vill, så det går inte att veta vilka av dessa som är påbörjade, utförda eller påbörjade men ej avslutade.

NCQ i SATA II (i gamla SATA fungerade det sämre) låter dig skapa en kö med operationer, skicka data för allting och sedan när som helst få tillbaka status om vilka av dessa operationer som är klara eller påbörjade.

Sen måste ju mjukvaran, diskarna och HD-kontrollern etc stödja detta.

Visa signatur

Main Core i9-9900k | NH-D15 | ROG STRIX Z390-F | 16GB DDR4 3200 MHz LPX | STRIX 2080 Ti GAMING OC | Samsung 970 EVO 1TB + Toshiba XG5 256GB | RM650X | R5 Blackout
HTPC/Barndator: Core i5-8400 | ASUS PRIME B360M-A | 16GB DDR4 2666 MHz | STRIX GTX 1070 OC | 2 x Toshiba XG5 256GB
Extradator: Core i7 870 | ASRock H55M-LE | 8GB 1600 MHz | Intel 320 120GB | HD6950 2GB | VX 550W

Permalänk
Medlem

NCQ länkar:

http://en.wikipedia.org/wiki/Native_Command_Queuing

http://www.thefreelibrary.com/Supercharging+SATA+drive+perfor...

http://www.hardwaresecrets.com/article/315

http://www.seagate.com/content/docs/pdf/whitepaper/D2c_tech_p...

http://linux-ata.org/driver-status.html
http://linux-ata.org/faq.html#ncq

Utan att ha läst allt, tycks en lyckad NCQ implementation vara beroende av:

1. Disken
2. Kontrollern, i vissa fall skall man välja AHCI i BIOS
3. Drivrutiner
4. Operativsystemet

Ont om tester men man kan få 20% I/O boost för vissa körprofiler, i andra lägen kan det bli sämre med NCQ än utan. Får man det att funka så skall det bli snabbare, slita mindre på diskarna och mindre värmeutveckling.

Still confused but on a higher level...

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av saddam
Emigrating12
Jag vet inte om du verkligen testar silent corruption nu. Det verkar som du påpekar, svårt att testa det korrekt. Jag kan för lite för att uttala mig om saken. Men i vilket fall som helst, så tror jag inte man råkar ofta ut för silent corruption. Jag tror det endast kan vara ett problem i system som skyfflar mycket data hela tiden utan avbrott. Jag själv har aldrig märkt att jag drabbats av det.

Det är ju sant, men det är precis därför jag kör rebuilds och consistency checks på arrayen så gått som hela tiden - data skyfflas konstant mellan diskarna och följer man HD tillverkarnas unrecoverable error-rates borde jag råka ut för ett catastrophic fel vid varje rebuild.

Nu kan det ju vara så att LSI kortet jag använder är bättre än många andra på recovery - det är trots allt samma typen kort som de flesta enterprise lösningar kör; men oavsett så är ju utkomman den samma - att alla dessa HW RAID "fel" verkligen inte är så troligt.

Min förståelse av NCQ är att det snabbar upp åtkomsttiden rätt mycket på pappret, men ganska lite i praktik. Det man gör är att skapa en "kö" av kommando'n, normalt sett utförs dessa sedan i turordning - precis som på banken där det går 1-2-3-4-5-6-7 osv. Med NCQ påslaget skapar man fortfarande samma kö, men beroende på var på disken operationen ska utföras exekveras kön i annan nummerordning, f.ex. 1-3-4-6-7-5-2.

Kör man Vista (eller senare - eller de flesta nyare *IX) samt har sin diskkontroller i AHCI mode ska NCQ vara enabled oberoende av drivrutiner. Under XP måste man in med en NCQ enabled drivare även on AHCI är påslaget.

Visa signatur

[Geek, Dad, Programmer, RC enthusiast, Technology evangelist]

Permalänk
Avstängd

Jookeer,
Solaris stödjer NCQ. Man kan slå av det med en flagga i... /etc/system filen? Jag vet inte om jag har NCQ påslaget just nu. IO boosten spelar ingen roll för mig, eftersom mitt raid maxar på ~150MB/sek pga PCI slot. Jag måste nog kolla lite mera om detta.

Vad säger Emigrating12 om NCQ? Är det nåt att eftersträva?

En annan aspekt på HW raid kort och ZFS.
Jag ser på båda två som hårdvaru synthesizer vs PC-mjukvara. En Yamaha synt kan man köpa för 10.000kr och har då kanske 64MB(?) fixt ROM där de samplat piano ljud + stråkar + gitarr mm. Det blir helt ok samplingar men lite fattigt ljud är det ändå, 64MB blir inte vidare naturtroget. Kanske är 10MB dedikerat till pianosamplingarna?

Numera på senare tid kan man köpa piano samplingar till PC. De är billigare, eftersom det är ingen extra special hårdvara som ska köpas, det är bara mjukvara. Det finns många PC pianosamplingar som är på 20-30GB, som körs från hårddisk. Jämför ljudet på en 10MB pianosampling mot en 30GB piano sampling. Det blir ganska stor skillnad. (Jag funderade lite löst på att köpa ett tangentbord och skaffa en 30GB pianosampling, då får man ett shysst piano hemma som låter bättre än en vanlig piano men inte tar upp nån plats. Det är bara att stuva undan keyboardet. Men jag kommer inte köpa, det tar sån tid att lära sig spela ett instrument om man inte kan det)

En dator har ju en stor hårddisk att lägga mycket mjukvara på. Men HW raid har ett litet fixt ROM/RAM(?). Dvs, ZFS kan bestå av mycket kod och ha en stor diskcache på flera GB RAM. HW raid kan inte det på samma sätt, hårdvaran är ju fix och mjukvaran kan inte ändras enkelt i efterhand, man måste flasha om.

Lite grand som en spelkonsol vs en PC. Spelkonsolen är fix, men har höga prestanda och funkar överlag mycket smidigt. En PC med klen CPU suger spelmässigt. Men en bra modern PC med bra hårdvara slår en spel konsol.

Så jag tror att allt som man tidigare gjort i hårdvara, kommer att komma som mjukvara när datorerna blir kraftigare. Och då försvinner hårdvaran småningom. Vad tror ni om detta? Kommer alla hårdvara dyka upp som mjukvara senare i framtiden? Är detta en trend? Jag tror det. Vad tror ni?

EDIT: Ok, tack för infon Emigrating12. Du var snabbare än mig.

Permalänk
Medlem

Jag tror inte HW RAID kommer blir borta någon gång snart - visst kan det köras [nästan*] lika bra genom SW, men kraften måste tas ifrån någonstans. De flesta SW lösningar tar detta direkt från din processor vilket ger minskad beräkningskraft till "actual work". Oftast kan man specificera hårdwara utefter behov, så att man tar med en SW RAID cpu overhead i sina initiella specs - men ta en SQL Server f.ex. som kan behöva 5TB lagringsplats, inte fan om du klarar hitta en DBA som tillåter att cpu kraft på en sådan server "försvinner" pga diskaccess.

Se bara på alla GPU beräkningsprog som kommer nuförtiden; om allt kunde köras lika bra i software som på dedikerad HW ville vi aldrig sett f.ex. en Folding@Home klient som körs på din Nvidia GPU, och detta visar ju en annan sak också - vissa typer beräkningar är inte lönt (i ören/kronor per beräkningscycle) att köras på en "motsvarande" CPU. Om jag slår ihop mina två 8-core Xeon server's är de lika snabba (ungefär) som ett grafikkort när det gäller Folding@Home. 4 Xeon processorer (även fast jag har de dyrare strömsnålare varianterna) drar 200w under full load - ett highend Nvidia kort drar [lite] mindre energi, arbetar [lite] snabbare och kostar i inköp lika mycket som en Xeon CPU.

Just pga denna typen hardware, vare sig om det är en GPU eller Intel IOP330 arbetar både Intel/AMD och VMWare/Xen/KVM/Parallels med VT-d/IOMMU utveckling som gör att man kan virtualisera moderkort/cpu/ram, men köra "beräknings" HW direkt på varje VM.

*) en SW array kan exempelvis inte köras med BBU. Visst, en UPS ger som oftast samma säkerhet, men om moderkortet skulle bränna kan man f.ex. flytta en existerande HW kontroller med [eller tillomed endast] BBU till ny maskinvara utan dataförlust - det kan man inte om moderkortet eller minnet är förstört.

That's my $0.01

Visa signatur

[Geek, Dad, Programmer, RC enthusiast, Technology evangelist]

Permalänk
Medlem

Jag har funderat och kommer att försöka bygga en OpenSolaris Desktop med en femdiskars ZFS array. Vi får se om OpenSolaris kan fungera som en Ubuntudesktop ersättare och samtidigt tillhandahålla säker lagring.

Tror det blir ett AMD system, funderar på en Phenom eller Phenom II då de kan leverera lite krut och samtidigt gå ner i C3 state. Intel GB LAN.

Annars kan jag ju alltid återvända till mjukvaruraid under linux, men till skillnad från förra gången köra ext4 istället.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av saddam

En annan aspekt på HW raid kort och ZFS.
Jag ser på båda två som hårdvaru synthesizer vs PC-mjukvara. En Yamaha synt kan man köpa för 10.000kr och har då kanske 64MB(?) fixt ROM där de samplat piano ljud + stråkar + gitarr mm. Det blir helt ok samplingar men
Så jag tror att allt som man tidigare gjort i hårdvara, kommer att komma som mjukvara när datorerna blir kraftigare. Och då försvinner hårdvaran småningom. Vad tror ni om detta? Kommer alla hårdvara dyka upp som mjukvara senare i framtiden? Är detta en trend? Jag tror det. Vad tror ni?

EDIT: Ok, tack för infon Emigrating12. Du var snabbare än mig.

För att följa upp din del om att dra allt på CPUn. I och med att CPUn blir allt "starkare" kommer fler och fler saker att dras tillbaks på CPUn, Om några årtionden (tror inte det blir förr) kommer nog det mesta fasas av och gå över på mer general purpose processorer. Grafikkorten kommer fasas ut, ljudkorten, raidkorten osv, eftersom Processorn kommer vara så mycket enklare och bättre. Visst CUDA / OpenCL är jättebra idéer och passar formatet vi har på våra maskiner i dagens ordning, fast om några år kommer man nog skratta år det.

Permalänk
Avstängd

Beh,
Om du ska slänga ihop en Desktop PC med 5 diskar i, tänk på att de låter en jävla massa. Står du ut med allt oväsen? Jag själv har en strömbrytare till mitt raid, så jag kan stänga av diskarna när jag inte accessar dem. Jag är skitnöjd med den lösningen.

MrSvamp,
Precis, det är min tro. Om ett tag kanske vi har 80 kärnors CPUer med flera Teraflop på en vanlig Desktop PC. Då kanske 20 kärnor är dedikerade till grafik. En kärna till nätverksskortet. En kärna till ljud. 40 kärnor till själva CPUandet. En kärna till filsystemet. etc etc. Då har vi inte längre massa specialiserad hårdvara. Vi har bara en kraftig CPU och alla funktioner tillhandahålls via mjukvara. Det blir billigare och flexiblare än massa special hårdvara. Så jag tror alltså att specialiserad hårdvara är på väg bort: NIC försvinner, Ljudkort försvinner (förrut hade man stora ljudkort, numera är det bara ett litet chip som kan ersättas av en kärna), Grafik kort försvinner (se Larrabee), etc. Numera kan man köra modem på själva CPUn, man behöver inte längre modemhårdvara.

Därför tror jag att i långa loppet, även HW raid kommer att försvinna. Kvar blir bara den nya generationens filsystem; ZFS, BTRFS, etc där man inte behöver HW raid.

Men sånt här är svårt att sia om. Vi får se om ett tag hur det hela utvecklar sig.

Permalänk
Medlem

Saddam:
Jo jag har funderat på det lite, men jag tror att själva maskinen kommer hamna i ett annat rum. Jag har en DVi -> CAT5 som stöder upp till WUXGA. Sen klarar man sig ju med en USB 2.0 och en hub på skrivbordet till allt som hör till där. Vi får se om sambon går med på en sådan lösning.

Permalänk
Medlem

Prestandautmaningen chipsetRAID5 eller mjukRAID5 är på G.

Tänkte köpa 3*WD Green 1TB/32MB för at testa - om intresse finns?

1. Kommer att köra w2k3/32, w7/64 och w8/64. Kan ej köra ZFS på OS - finns inga drivisar till MCP55. Kan ev. rigga upp en ICH10R-burk om intresse finns?!

2. Testmetodik och testprogg - vad/vilka och hur?

3. Något annat ni vill ha testat?

Permalänk
Avstängd

beh,
Hur funkar en sån? Kan man spela fps spel eller sjunker frames rate väldigt?

jookeer,
Jag tror mjukraid blir långsammare än chipset. Det tror väl de flesta? Normalt är väl ett HW raid är snabbare än ZFS, om du inte har en kraftig CPU och många diskar mycket RAM. Så jag tror inte riktigt du behöver göra det där testet, för det kommer antagligen bara bekräfta att HW raid är snabbare än mjukraid?

Här finns en intressant artikel, med flera intressanta länkar om silent corruption:
http://www.enterprisestorageforum.com/continuity/features/art...

Prat om stora filsystem (>500TB):
http://www.enterprisestorageforum.com/sans/features/article.p...

Uppföljaren:
http://www.enterprisestorageforum.com/sans/features/article.p...

Permalänk
Medlem

Nej, framrate sjunker inte. De klarar 60 Hz (mer är ju idioti på dagens LCD-skärmar). Det är möjligt att man får 1 frame lagg på förbindelsen, dvs. 16 ms. Men jag kan inte hitta någon information om detta hos produsenten.

Jag har inte testat om så är fallet utan upplever det som en helt transparent lösning.

Det finns en uppsjö av DVI - Cat5 extenders:
http://www.gefen.com/kvm/dproductlisting.jsp?listingCategory=...

Edit: Logikfel

Permalänk
Medlem

saddam
Jag tror oxå att chipsetRAID5 är snabbare än mjukRAID5. Andra säger att det är samma sak. Så tanken är att ta reda på fakta.

Att "äkta" HW RAID5 med XOR processor är snabbare än ovanstående betvivlar väl ingen, så det tänker jag inte testa.

Permalänk
Medlem

jookeer:
Jag tycker det skulle vara intressant att se vad man kan få för hastighet på vanlig hårdvara med ZFS eller MD.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av beh
jookeer:
Jag tycker det skulle vara intressant att se vad man kan få för hastighet på vanlig hårdvara med ZFS eller MD.

Absolut - det tycker jag oxå. Som framgår av tidigare inlägg från mig har jag försökt få igång ZFS på 2st burkar.

Många hinder att passera, bla. avsaknaden av drivare till OS (OpenSolaris) på viss HW. Därefter strul med att konfa ZFS + få ZFS åtkomligt på hemmaLANet från Win. Delvis beroende på att jag endast har elementära kunskaper om Linux/Unix, funkar inte infon från manualer, bloggar och websajter så sitter man fast.

Hade till och med en ambition att sätta upp en lathund i tråden om hur man sätter upp en ZFS NAS, från ax till limpa men det föll på ovanstående problem. Men, visst, jag kan prova igen men behöver isf lite mer support från er som kan/vet bättre. Det kan ta uppåt ett dygn innan man får svar på en fråga i tråden och har man en handfull frågor så tappar man tempot, liksom, typ.

Så om någon av er experter kan/vill göra er tillgängliga för rådgivning via tex Skype eller telefon är jag beredd att göra ett nytt försök. Skicka mig ett PM i så fall.
---------------------
Nu sätter vi fart på tråden igen!

Godis för Linux/Win2000 för mätning av diskprestanda:

http://www.iozone.org/

Har inte hunnit prova men ser seriöst ut, en bekant kör den här på jobbet ibland.

Permalänk
Medlem

Vad kom du till för slutsats av dina tester? Ingen större skillnad, eller?

Iallafall, nu har det hänt; en 2TB array har gått åt helvete. RAID6 tillomed. Började med att jag fick en mail om att en av mina diskar var "inoperable", vilket inte var speciellt oroväckande, jag körde bara igång en rebuild på en av mina spares och tänkte inte mer på det... Förräns jag plötsligt märker att jag inte längre har tillgång till \\STOR\Media\Audio\Albums - weird. Startar mitt RAID verktyg och kopplar till servern ifråga och ser att tre diskar nu är märkta som inoperable och min array är ej längre partially degraded utan är nu offline. Helvete tänker jag lite småhögt. Jaja, försöker att forca diskarna online igen (eftersom jag vet att de är helt OK), och nothing - nu hänger sig tillomed verktyget (mumlar något om firmware fel på HBA) och jag bestämmer mig för att starta om maskinen - det var enklare att RDPa in till servern och köra en restart än att klä på sig vinterbeståndigt och faktiskt dra ut / sätta tillbaka RAID kontrollern (hotswap), sagt och gjort, väntar någon minut på att maskinen ska börja vara på ping igen och försöker logga på. Ingenting händer. Fortfarande inte speciellt lust att dra på sig overallen för att besöka servern cyclar jag helt enkelt strömmen till den (tacka fan för IP kontrollerade grenuttag ) och försöker igen. Ja, nu startar den upp som vanligt och allt är frid och fröjd tror jag, men nejdå, det visar sig att orsaken den inte startade första gången var pga att OSet bestämt sig för att "kontrollera" min 2TB array (som tydligen hade kommit tillbaka ifrån "offline" till "healthy" status) och samtidigt börjat rövk****a filsystemet - när jag sedan cyclade strömmen gick väl allt åt skogen. Smart som jag är besökte jag nu servern, drog diskarna och tog med mig tillbaka för att återskapa arrayen lokalt och rädda data't - det jag inte tänkte på var att skriva upp vilken disk som satt var eftersom mina kontrollers använder sig av COD - configuration on disk - och hittar fram till detta själv. Självklart fungerade det inte såhär denna gången och jag sitter nu med 6 diskar, varav data integriteten på en är helt kass, filsystemet på arrayen är "raw" och ingen aning om vilken disk som ska kopplas vart. Detta var en vecka sedan eller så, sedan dess har jag försökt hitta programvara som kan återskapa RAID 6 (iställetför RAID0, RAID5 som verkar mycket vanligt) - är lite närmare, då jag har kommit fram till block size (64kb) samt vilken disk som är nummer 1 och kan återskapa filer från arrayen utan problem, dock är det fortfarande ordningsfel eftersom filerna dyker upp som (exempelvis) ADFCBE iställetför ABCDEF.

Iallafall, nog om det - jag hade en fråga här Om samma sak (ok, liknande) hände med en ZFS array, vilka möjligheter finns det att få tillbaka data därifrån? Vad jag sett finns det inga forensic utilities som hanterar ZFS raid/diskar och enda möjligheten verkar då vara ett recovery lab - vilket kostar skjortan här i landet, jämfört med f.ex. UK där de ger dig en gratis uppskattning och no recovery, no fee garanti. Kan jag ta en ren image av diskarna och skapa en "virtuell" array av dessa för att försöka pussla ihop bitarna eller är loppet kört för ZFS i sånna här fall?

Visa signatur

[Geek, Dad, Programmer, RC enthusiast, Technology evangelist]

Permalänk
Avstängd

Aj f@n. Det låter jobbigt. Jag hoppas du får ordning på detta. Om det är någon som kan klara av det så är det du. Så mycket som du sysslat med raid och servrar och sånt. Jag skulle varit helt handikappad. Har du ringt/mailat supporten? Vad säger de? Du har ingen backup?

Angående ZFS så visst, ZFS är säkert. Men även ZFS kan strula. Och om ZFS strular så sitter man på pottan. Förutsatt man inte har ett supportavtal med SUN för någon ~tusenlapp/år. Då kanske det ordnar sig.

Jag vet faktiskt inte hur bra ZFS är mot sånt här. Det låter som rejäla problem. Exakt vad är det som är problemet? Jag fattar inte riktigt. Vad hände? "OSet började kontrollera arrayen"? Om ZFS skulle kontrollera så görs det via "scrub" och då tas inte arrayet off line. Arrayen funkar som vanligt utan problem, mitt under kontroll.

Permalänk
Medlem

emigrating12

Sörjer med dig - flaggan på halv stång hos jookeer.

Oxå jag har tappat femmor några ggr - bla pga:

1. Slarv/okunnighet + panik + murphy
2. Automatisk "repair/rebuild" utan att man bett om det
3. Dålig dokumentation
4. Ofullständig backup

Tips:

När man sätter upp femman första gången fyll den till säg 5% med nåt skit. Öva därefter med olika kraschscenarier, ta bort en disk, ta bort 2, byt plats på kablarna, mecka med BIOS, mecka med inställningarna i OS.

Dokumentera vad du gör och vad som händer, identifiera återvändsgränder etc. och försök hitta vägar att reparera.

Tyvärr är det ofta så att de flesta av oss är inbitna optimister och tänker inte på kraschhantering förrän det är försent och då sitter vi där utan kunnande och tror vi kan "labba/prova/chansa" att reparera. Ett enda litet felgrepp kan sänka hela skiten.

Dela med dig av ovanstående här i tråden så vi oxå lär oss av detta.

Permalänk
Medlem

Jag är egentligen lite smått osäker på exakt vad som hände - verkar som om min kontroller fick spratt och tappade först en disk, sedan tre, därefter krashade den helt enkelt (gav iallafall firmware errors i loggen).

Vid den här tidspunkten var arrayen offline pga inoperable disks men tydligen var den tillbaka online igen vid reboot (vid eftertanke skulle jag såklart rest på rumpan och besökt servern med en gång) då Windows bestämde sig att kontrollera disken och (enligt loggar) ändra MFT totalt.

Det här är ju Murphy's law till 100% eftersom den [arrayen] och andra har fungerat i ... evigheter. Tyvärr var det här min backup då jag precis hade flyttat över mina viktiga data till den för att byta ut de sista diskarna mot nya WD 2TB Fotografier, dokument, projekt, kod etc ifrån 1995 och framåt. Bilderna lyckades jag rädda eftersom jag hade kvar den gamla disken, resten hadde redan gått igenom fullständig erase.

Verkar dock som om jag ska kunna rädda det som ligger där bara jag lyckas sätta diskarna i rätt ordning, med rätt blocksize osv. UFS Explorer har ett virtuell RAID6 mode som jag jobbar med nu - andra produkter, så som RAID Reconstructor, R-Studio, File Scavenger etc stödjer bara upp till RAID5.

Ohh yah, supporten säger att sålänge jag kan klura ut hur diskarna satt kan jag helt enkelt bygga en ny array med samma diskar och inställningar - samt att jag borde tagit en backup innan jag tog bort de gamla diskarna.. Jodå, de har väl ett poäng där

Visa signatur

[Geek, Dad, Programmer, RC enthusiast, Technology evangelist]

Permalänk
Avstängd

Ok, så du kanske fixar biffen ändå? Va bra. Det låter som ett jobbigt problem, men jag tror att med supporten och dina erfarenheter så kan du nog lösa detta. Så ska du byta kontroller kort?

Jag vet inte hur ZFS reagerar på en trasig kontroller. Jag tror inte ZFS skulle klarat av det bättre än din nuvarande lösning men jag hoppas inte ZFS skulle sabbat data dock.

Permalänk
Medlem

Trist emigrating12, där hade du otur kan man säga, hoppas du klarar av att reparera filerna.

Jag har inte jättemycket data på min filserver ännu så jag kanske kan testa vad som händer med zfs. När man ser sådana här historier så vill man ju gärna försöka hindra att man själv drabbas så det är ju bra att simulera ett haveriscenario.

Jag har alltså en raidz1 array (motsvarar RAID-5) bestående av 5 stycken 1 TB diskar. Om jag kopplar ur 2 diskar så bör den ju bli offline. Sedan kan jag testa sätta tillbaka en av diskarna och koppla om SATA-kablarna så att ordningen blir felaktig och starta upp servern igen och se om arrayen blir online. Kolla om den kör scrub automatiskt (tror inte den gör det). Testa köra en scrub och se om filerna fortfarande är intakta efteråt trots fel ordning på diskarna. Koppla in sista disken och se om den kan återställa arrayen.

Jag ska lägga detta på min "att göra lista" efter punkten "se över säkerhetskopiering av viktiga data".

Permalänk
Avstängd

Ronnylov,
jag tror att det där fixar ZFS. Jag har gjort något liknande och det funkade. Men testa för all del. Kanske emigrating12 kan föreslå ett svårare test, i stil med det som inträffade?

Permalänk
Hedersmedlem

Återupplivar denna tråd lite. Hur som helst, har bara en enkel fråga: om man kör ZFS och maskinen man kör på går åt skogen, kan man likt Windows mjukvaru-RAID identifiera och använda ZFS-arrayen på en annan dator med samma OS?

Visa signatur

SWECLOCKERS.COM :: If Quake was done today ::
WS: Gigabyte Z690 UD DDR5 :: Core i5 12600K :: 32 GB RAM :: PNY Geforce GTX 970 :: 10 GbE NIC :: AOC C32G1 32" :: Seagate FireCuda 530 1TB :: Deepcool Matrexx 55
NAS: SM X10-SLM-F :: Mellanox Connect2X SFP+ :: Intel XL710-QDA1 QSFP+

Permalänk
Medlem

Jepp, förutsättningen är att du inte kör någon typ av RAID (chipset eller HW-controller) på ZFS-arrayen, de skall alla vara single diskar.

Permalänk
Hedersmedlem

Har en Lacie Ethernet Disk på 2 TB (4x500 GB) som står på hyllan idag, kanske kan vara värt att testa. Problemet där är väl att den endast har 512 MB eller 1 GB RAM och en Via C7-processor på 1 GHz. Kan det bli ett problem prestandamässigt med dessa specs tro?

Visa signatur

SWECLOCKERS.COM :: If Quake was done today ::
WS: Gigabyte Z690 UD DDR5 :: Core i5 12600K :: 32 GB RAM :: PNY Geforce GTX 970 :: 10 GbE NIC :: AOC C32G1 32" :: Seagate FireCuda 530 1TB :: Deepcool Matrexx 55
NAS: SM X10-SLM-F :: Mellanox Connect2X SFP+ :: Intel XL710-QDA1 QSFP+

Permalänk
Medlem

Beror väl på vilken prestanda du vill ha. Kan nog räcka för ett 100 Mbit/s nätverk tror jag om du kan få det att funka (hårdvaran verkar udda). MilaX är ganska resurssnålt som operativsystem men hårdvarustödet är nog lite begränsat tror jag.

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av ronnylov
Beror väl på vilken prestanda du vill ha. Kan nog räcka för ett 100 Mbit/s nätverk tror jag om du kan få det att funka (hårdvaran verkar udda). MilaX är ganska resurssnålt som operativsystem men hårdvarustödet är nog lite begränsat tror jag.

Självfallet vill jag ha så hög prestanda som möjligt. Hårdvaran bygger på VIA:s C7-plattform med tillhörande styrkrets och kontrollerkort. Jag har inte kollat, men skulle tro att hårddiskkontrollerkortet stöds då de flesta från VIA brukar funka enligt min visserligen något begränsade erfarenhet. Men förutom kontrollerkortet, är det något annat som kan strula eftersom det är en något udda plattform?

Visa signatur

SWECLOCKERS.COM :: If Quake was done today ::
WS: Gigabyte Z690 UD DDR5 :: Core i5 12600K :: 32 GB RAM :: PNY Geforce GTX 970 :: 10 GbE NIC :: AOC C32G1 32" :: Seagate FireCuda 530 1TB :: Deepcool Matrexx 55
NAS: SM X10-SLM-F :: Mellanox Connect2X SFP+ :: Intel XL710-QDA1 QSFP+

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Kr^PacMan
Återupplivar denna tråd lite. Hur som helst, har bara en enkel fråga: om man kör ZFS och maskinen man kör på går åt skogen, kan man likt Windows mjukvaru-RAID identifiera och använda ZFS-arrayen på en annan dator med samma OS?

Du behöver inte ha samma OS. Du kan testa på en FreeBSD maskin eller Apple OS X eller en ultra sparc niagara server för miljoner kr med helt annan endian än x86. Dock måste du tänka på att ha samma version av ZFS på diskarna som på OSet. ZFS är nu i version v13(?) i OpenSolaris.

Solaris10 kör ZFS v10(?). Om du försöker göra "zpool import" i S10 så kommer S10 säga "can not import zpool, it uses a newer version" - eller nåt sånt. Så inget farligt händer om du försöker importera en nyare version.

Det finns två ZFS saker som kan uppgraderas. "zpool" och "zfs". zpool är själva zfs raidet (tror jag). "zpool upgrade -v" visar version tror jag. Du kan även uppgradera "zfs" som hanterar filsystemen tror jag. "zfs" är v3 just nu. "zpool" är v13 i OpenSolaris.

Var försiktig med att uppgradera vilt om du vill köra andra OS. T.ex. kan du inte accessa ditt zfs raid ifrån FreeBSD kanske, för FreeBSD kör väl en gammal version av ZFS?