Hårdvaruraid vs ZFS, på hemmabygge?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av pa1983
Eftersom mycket redan sags i tråden och allt orkade jag inte läsa. jag har kört lite mjukisraid. har en burk ståendes som kör raid 5 på ett PCI-X sata kort med sil3124 oc hstöder både sata 2 ncq, hot-plug osv för 995Kr

processorn får göra jobbet ja men so msagt inte specielt svårt att sätat upp i linux. Sedan som nån sa det är rätt lätt att rädda en raid aray i linux om man är lite jävlig om det blir nåt fel typ 5 disakr faller ur som det gjorde för mig. Jävla kabelglapp var det så fick byta kablar men fick igång den igen ändå.

Hårdvaru raid har en nackdel som inte nämts. Nån skrev att man kan bar ta kortet å diskarna å flytta till en annan server som om det vore en fördel. Är rätt uppenbart att det bör fungera. Nåt som inte nämdes är att pajar raid5 kortet och inte ett lika dant kan återfinas så kan man vara redit körd på att åteställa datan. Hände en polare när ahsn raid5 kort gav upp och det inte lägre gjordes.

Mjukisraid i linux tex kan man bara flyta över disakran till valfri maskin, behöver inte ens vara samam kontrolerkort och sedan kan man satarta upp arayn igen lätt som en plätt.

HW raid5 är nog snabbare på skriv än en mjukisraid men många billigare raid kort saknar minne och en fullfjädrad XOR processor också. Får upp i säg 3K+ för 4 port för å få ett ricktigt hårdvaru raid 5 PCI-X kort osv.

Dom flesta modärna processorer kan utan problem hantera en mjukvaru raid5 aray med 4 eller fler disakr i linux. Sedan avgör ju så klart vad man har för bussar och kontrolerkort anslutna vad prestandan blir.

Med Arecas kort ska man tydligen kunna ta vilket kort som helst ur deras serie så ska det fungera altsså behövs det inte exakt samma modell som man hade innan.

Visa signatur

R.I.P Robert 2004-01-29 (klasskompis) Läs: Artikel Nr 1. | Artikel Nr 2. | Artikel Nr 3.

Permalänk
Citat:

Ursprungligen inskrivet av RoleX
Med Arecas kort ska man tydligen kunna ta vilket kort som helst ur deras serie så ska det fungera altsså behövs det inte exakt samma modell som man hade innan.

Detta stämmer också [iallafall till viss del] med 3ware och LSI kort. Jag flyttade en array från ett 3ware 9550 kort till 9650 utan problem men enligt deras support (som förövrigt är toppen) ska det fungera fint från andra kort i samma familj också.

Likaså på en av mina LSI chippade kontrollers så har jag kunnat flytta hela RAID arrayer till andra kontrollerkort utan problem.

En annan sak jag gärna vill få svar på är hur ZFS hanterar utökning av array storleken vid uppgradering av diskar - låt oss säga att jag har en 12 diskars RAID6 array av 500GB diskar. Denna kan jag, disk för disk, uppgradera till f.ex. 1.5TB diskar på mitt 3ware kort och sedan utöka den virtuella diskstorleken ifrån 5000GB till 15000GB allt medans min array fortfarande är tillgänglig och användbar (en snabb email till/från 3ware's support behövs dock också) - hur tacklar ZFS detta scenario?

Visa signatur

on the internet since 1993
[ Geek - Dad - Programmer - RC enthusiast - Technology evangelist ]

Basically, you’re the guy who survived the shipwreck because you had a lifeboat, and now you’re standing on the shore telling the people still drowning that the ocean isn’t that bad.

Permalänk
Avstängd

Hehe vad har du för tidsplanering till något sådant?

Permalänk

Haha, det tog en evighet ska jag lova dig. Var ju tvungen att rebuilda arrayen mellan varje diskbyte. Men det var bra mycket mindre smärtfullt än jag hadde räknat med - trodde först jag ville vara tvungen att sätta upp en helt ny array med de större diskarna och kopiera över data, vilket iofs hade varit snabbare men jag hade inga lediga RAID portar på det kortet. En snabb koll på 3wares support visade att det var fullt möjligt (även fast de rekommenderade en backup innan ).

Visa signatur

on the internet since 1993
[ Geek - Dad - Programmer - RC enthusiast - Technology evangelist ]

Basically, you’re the guy who survived the shipwreck because you had a lifeboat, and now you’re standing on the shore telling the people still drowning that the ocean isn’t that bad.

Permalänk
Avstängd

Och där kommer väl också en nackdel fram med hård raid. Man bör trots allt ha ett extra kontrollerkort tillgängligt, annars räcker det fortfarande med att en del i hårdvarukedjan går sönder för att man ska riskera att förlora sin data.

Men hur blev det då? Kunde du se resterande diskyta på de nya diskarna och bara utöka partitionerna eller vad hände?

Permalänk

Jo, följer man best-practice guidelines så ska man såklart ha ett identiskt kort på hand. Dock har jag aldrig upplevt att en kontroller i sig har felat (men det är ju som att säga att man aldrig kört på en älg - plötsligt händer det).

Dock behöver man ju inte en identisk kontroller (som vi sa tidigare) eftersom [iallafall 3Ware, LSI och Areca] arrayerna är "kompatibla" med andra kort från samma tillverkare. Så enda orsaken till att lägga ned pengar på ett backup kort är om kortet man currently använder kommer från en tillverkare som förväntas gå i konkurs eller sluta tillverkning av sina kontroller's.

Men jodå, var inga problem att utöka på det sättet. Byta disk, rebuild, byta disk, rebuild osv tills alla var utbytta, mailade sedan min config fil til 3Ware's support och inom några timmar fick jag en mail tillbaka med en "uppgraderad" config - körde in denna och kunde utöka partitionen i Windows Disk Management. Hade såklart varit enklare att bara skapa en ny array på de större diskarna, men förutom tidsaspekten med det här fungerade det väldigt bra.

Visa signatur

on the internet since 1993
[ Geek - Dad - Programmer - RC enthusiast - Technology evangelist ]

Basically, you’re the guy who survived the shipwreck because you had a lifeboat, and now you’re standing on the shore telling the people still drowning that the ocean isn’t that bad.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av saddam
De märker att skrivningen misslyckades. Men, antag att du ska skriva ned data från RAM på disk, och på vägen till disken flippas några bitar i dataströmmen. T.ex. solen får solstormsutbrott, eller strömspik eller whatever. Ett HW raid vet inte om några bitar blev förvanskade, det du får veta, är att din fil är nedskriven. Thats it. Men ZFS vet om bitar förvanskas, för varje skrivning så läser ZFS omedelbart tillbaka det nedskrivna och jämför. Och om ZFS ska uppdatera en fil på disk, så skrivs allting ned först på ett nytt ställe (ZFS skriver inte över det gamla) och först när allting är korrekt nedskrivet så flyttas pekaren till den nya informationen. Den gamla informationen är kvar ett tag. Som journal förande filsystem. Data consistency/integrity är alltid garanterad och du kommer aldrig hamna ur sync med dina data. Detta kräver dock att ZFS bränner massa CPU pga alla dubbelkoller precis hela tiden. Men det är värt? Tidigare brukade jag kopiera viktiga filer till flera olika datorer innan jag kände mig säker. Numera känner jag mig osäker ända tills jag fått över det till min ZFS raid. Först då kan jag andas ut. Antag att jag spenderat 100 tals timmar på att få mina data, då tycker jag det är viktigare med datasäkerhet än extrema överföringshastigheter. Vissa data kan vara värda miljoner, då blir det än viktigare.

Som en annan läsare redan påpekat: du lever väl inte i villfarelsen att ZFS (eller RAID för den delen) är en ersättare för bra backuprutiner?
Sen verkar det som om du tror att det inte sker några kontroller av dataintegriteten över huvud taget i ett system förutom det ZFS gör. Data i processorcachar kontrolleras med paritetsbitar (du använder väl dessutom RAM med ECC eftersom du är rädd för "flippade bitar"?). Data på bussar mellan komponenter kontrolleras med CRC-summor, samma för data i RAID-kontrollerns cachar. På disk skrivs data med en massa felkorrigeringsdata för att förhindra att "brus" på mediat påverkar resultatet.

Citat:

Ursprungligen inskrivet av saddam
Som jag sagt, en enkel CPU + 4 diskar i ZFS ger dig 120MB/sek. Stoppar du i 7 diskar får du mycket mera speed. etc. Jag har skrivit om typiska överföringshastigheter med ZFS i tidigare inlägg.

Den här typen av generaliserande påståenden gör att man omöjligt kan ta dig på allvar. Vad pratar vi för kontrollerkort, buss, diskar, arraytyp, dataset och I/O-karakteristik? Är det stora läsningar, små skrivningar, blandad access etc?

I samma svepande anda påstår du att ZFS är billigare än hårdvarubaserad RAID men du har inte ställt upp några kriterier överhuvudtaget på vad behoven/kraven är. Det är inte särskilt svår att föreställa sig ett scenario där ZFS extra processorlast gör det till ett dyrare alternativ om man räknar in elförbrukning (vilket i de allra flesta fall är en betydligt större kostnad än inköpspriset).

Jag instämmer i emigrating12s analys: du är ovillig eller rent av oförmögen att inse att alla inte ser ZFS som "den ultimata lagringslösningen" och alla argument för att andra lösningar kan ge samma--eller bättre--säkerhet, prestanda etc, hur insatta eller kompetenta de än är så ogiltigförklarar du dem för att de inte passar din bild av hur saker och ting förhåller sig.

Slutligen vill jag tillägga att jag verkligen gillar både Solaris och ZFS men som jag sade tidigare: man blir lite trött på mässandet.

Citat:

Ursprungligen inskrivet av emigrating12
En annan sak jag gärna vill få svar på är hur ZFS hanterar utökning av array storleken vid uppgradering av diskar - låt oss säga att jag har en 12 diskars RAID6 array av 500GB diskar.

Såvitt jag vet stödjer inte ZFS expansion av RAIDZ/RAIDZ2-arrayer. Både det och förminskning av arrayer (genom att plocka bort en disk) lär vara på gång dock.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av emigrating12

Dock behöver man ju inte en identisk kontroller (som vi sa tidigare) eftersom [iallafall 3Ware, LSI och Areca] arrayerna är "kompatibla" med andra kort från samma tillverkare. Så enda orsaken till att lägga ned pengar på ett backup kort är om kortet man currently använder kommer från en tillverkare som förväntas gå i konkurs eller sluta tillverkning av sina kontroller's.

.

Antinget det eller så vill man minimera sin "downtime", för vem orkar vänta på att få tillbaka kortet från reperation?

Men för att hemmabygge/svensson bygge så är ju redan första kontrollerkortet Overkill att sedan ha en till som reserv ja då jävlar är det überviktiga saker det handlar om som inte får försvinna

Visa signatur

R.I.P Robert 2004-01-29 (klasskompis) Läs: Artikel Nr 1. | Artikel Nr 2. | Artikel Nr 3.

Permalänk
Medlem

Problemet med zfs är att man sitter fast med opensolaris eller BSD, köra zfs under linux i "user land" vill man helst inte göra.

Visa signatur

Nätverksnörd

Permalänk
Avstängd

Det där får du nog ta och utveckla...

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av dundermuppen
Jag misstänker att du inte riktigt känner till hur hårdvaruraid fungerar. Hur tror du att ett kort vet om en disk är trasig annat än i de lägen den helt enkelt inte varvar upp ens? Det kontrolleras med checksummor och där blir det direkt uppenbart om det är datakorruption. Riktiga kontrollers gör också fortlöpande kontroller av hela diskytan de tidpunkter som det inte maxbelastas.
Jag ser att du påstår att hårdvarukontrollers skriver ut datat utan att sen kontrollera att det blev skrivet? Har du någon fakta bakom det påståendet och helst då en lista på vilka kontrollers som bara skriver i blindo?

En annan fråga. Kan du exemplifiera vilka typer av hårdvarukontrollers du pratar om här? LSI? Adaptec? Promise? Highpoint? SiliconImagebaserade? Intel ICHxR? Andra?
Bara så att vi pratar om samma sak.

Jag hoppas att du inte lever i villfarelsen att din zfs kan ersätta backup

Nej jag tror inte ZFS ersätter en backup. Men jag kör en hemma lösning för några tusenlappar. Jag har inte råd med en tape backup. Kort sagt, jag kör utan backup. Gör inte de flesta hemanvändare det? Hur många har t.ex. tape backup hemma?

Angående HW raid och data korruption. Jag tycker det är jättebra att ni frågar eftersom jag vill självklart lära mig ZFS begränsningar. Eftersom jag är "nykär" tänker jag inte i de banor som ni gör (Fan, ZFS är så enkelt och snyggt så man kan inte tycka illa om det). Era relevanta frågor vill jag oxå ha svar på, förstås. Jag vill ju köra det bästa möjliga för en billig peng, som alla andra vill. Om det nu visar sig att ZFS inte håller måttet så vill jag inte köra det förstås. Men SUN brukar inte komma med tveksamheter i sina reklamkampanjer, på samma sätt som t.ex. IBM eller MS? Men om ni sett SUN göra det, så vill jag gärna veta mera om det.

Jag har dröjt med svaren angående om HW raid korruptar data, eftersom jag frågat runt för att jag vill vara 100% säker och jag har inte fått länkar till artiklar som går igenom alla HW raid, kort för kort och undersöker hur de behandlar data korruption. Ingen har visat mig nån sån artikel, men eftersom Dundermuppen verkar känna till detaljerna om såna här saker, så vill jag och flera andra här, gärna läsa hans länkar. Dundermuppen kan du posta dem? Vore intressant.

Här pratas om en HW raid undersökning på fysikcentrum CERN, CERN lagrar ju massor av data för sin stora partikel accelerator och borde veta vad de sysslar med?

http://opensolaris.org/os/community/zfs/docs/zfs_last.pdf

Measurements at CERN
● Wrote a simple application to write/verify 1GB file
● Write 1MB, sleep 1 second, etc. until 1GB has been written
● Read 1MB, verify, sleep 1 second, etc.
● Ran on 3000 rack servers with HW RAID card
After 3 weeks, found 152 instances of silent data corruption
● Previously thought “everything was fine”
● HW RAID only detected “noisy” data errors
● Need end-to-end verification to catch silent data corruption

Mera prat om HW raid:
http://74.125.77.132/search?q=cache:DA0-6Ufp8a8J:gridmon.dl.a...

One failure for every 10**15 bits read.
RAID arrays may not handle block re-maps satisfactorily or take so long
that the system has given up.
RAID5 not perfect protection – finite chance of 2 disks failing!
SCSI interconnects corrupts data or give CRC errors
Filesystems (ext2) corrupt for no apparent cause (EXT2 errors)
Silent data corruption happens (checksums are vital).
Fixing data corruptions can take a huge amount of time (> 1
week). Data loss possible

En teknisk artikel om varför Raid 5 bör undvikas, säger att Raid 5 kontrollerar inga läsningar:
http://www.miracleas.com/BAARF/RAID5_versus_RAID10.txt
"When a drive returns garbage, since RAID5 does not EVER check parity on
read
(RAID3 & RAID4 do BTW and both perform better for databases than
RAID5 to boot) if you write a garbage sector back garbage parity will
be calculated and your RAID5 integrity is lost! Similarly if a drive
fails and one of the remaining drives is flaky the replacement will be
rebuilt with garbage also propagating the problem to two blocks instead of
just one."

Sen skriver lite blandat folk så här till mig:

"Until a few years ago, the understanding of "HW RAID doesn't proactively
check for consistency of data vs. parity unless required" was true. But
LSI had added background consistency check (auto starts 5 mins after the
drive is created) on its RAID cards

...

This is exactly the point why RAID6 should always be chosen over RAID5,
because in the event of a wrong parity check and RAID5 the controller
can only say, oops, I have found a problem but cannot correct it - since
it does not know if the parity is correct or any of the n data bits. In
RAID6 you have redundant parity, thus the controller can find out if the
parity was correct or not. At least I think that to be true for Areca
controllers As I said I know that our Areca 1261ML does detect and correct those errors - if these are single-disk corruptions

...

dual-disk corruption can (to my understanding) never be healed by the HW raid controller since there is no redundant information available to check against.

...

Almost all old RAID designs have holes in their logic where they are insufficiently paranoid on the writes or read, and sometimes both. One example is the infamous RAID-5 write hole.

Look at simple example of mirrored SVM versus ZFS in page 15-16 of this presentation:

http://opensolaris.org/os/community/zfs/docs/zfs_last.pdf

Critical metadata is triple duped, and all metadata is at least double-duped on even a single disk configuration. Almost all other filesystems are kludges with insufficient paranoia by default, and only become sufficiently paranoid by twiddling knobs & adding things like EMC did. After using ZFS for a while there is no other filesystem as good. I haven't played with Linux BTRFS though maybe it has some good stuff but last I heard was still in alpha.

...

AFAIK, HW raid usually do not check the validity of data unless a disc returns an error.

....

My understanding is that ordinary HW raid does not check data correctness. If the hardware reports failure to successfully read a block, then a simple algorithm is used to (hopefully) re-create the lost data based on data from other disks. The difference here is that ZFS does check the data correctness (at the CPU) for each read while HW raid depends on the hardware detecting a problem, and even if the data is ok when read from disk, it may be corrupted by the time it makes it to the CPU.

Så det verkar vara blandade bud. Det verkar som vissa HW raid kort börjar först på senare år få viss felkontrollering, men inte vidare sofistikerad. Det är mera ett påhäng och en efterkonstruktion. Medan många andra HW raid skriver i blindo.

ZFS designades från grunden upp, med felkontrollering i åtanke, det är en av SUNs högsta prioriteter i serverhallarna, eftersom datamängderna blir större, så blir såna här fel vanligare och ett reellt problem för Enterprise företag, dvs SUNs kunder. SUNs kunder klagar och kräver lösning.

Här ser vi dock att ZFS inte läser tillbaka allt i RAM omedelbart efter en skrivning, vilket jag felaktigt fått för mig. Istället kontrolleras datat efter varje läsning, om datat man fått fortfarande är korrekt. Detta är ju bättre. Tack till Dundermuppen som önskade mer utredning om detta!

"When ZFS writes the data, it also stores a checksum for the data. When the data is read, it is checksummed again and the checksum is verified against the stored checksum. It is not possible to compare with data in RAM since usually the RAM memory is too small to cache the entire disk, and it would not survive reboots."

...

One of the design principles we set for ZFS was: never, ever trust the
underlying hardware. As soon as an application generates data, we generate a checksum for the data while we're still in the same fault domain where the application generated the data, running on the same CPU and the same memory subsystem. Then we store the data and the checksum separately on disk so that a single failure cannot take them both out.

When we read the data back, we validate it against that checksum and see
if it's indeed what we think we wrote out before. If it's not, we employ all
sorts of recovery mechanisms. Because of that, we can, on very cheap
hardware, provide more reliable storage than you could get with the most
reliable external storage. It doesn't matter how perfect your storage is, if
the data gets corrupted in flight - and we've actually seen many customer
cases where this happens - then nothing you can do can recover from that.
With ZFS, on the other hand, we can actually authenticate that we got the
right answer back and, if not, enact a bunch of recovery scenarios. That's
data integrity.

Här står ganska utförlig info om ZFS och data säkerhet av ZFS huvudarkitekt:
http://opensolaris.org/os/community/zfs/docs/zfs_last.pdf

Sen fanns det snubbar som sågade HW raid 5 som något dåligt och det ska undvikas. Här finns massa tekniska artiklar om varför de tröttnat på HW raid 5 och undviker det numera:
http://www.baarf.com/

"I lean towards simple mirrors these days. But if you are comparing with "Hardware RAID" what you mean is RAID-5 typically which is something I try to avoid now. In that comparison ZFS RAIDZ2 still comes out ahead of all RAID-5/6 setups IMO."

Emigrating12
Angående att byta ut diskarna mot större, så går det utan problem. Man tar loss en disk och stoppar i en större och reparerar raidet. Det är typ ett kommando, typ
#zpool replace disk3
Så skriver den bara det aktiva datat på den nya disken, ingen formatering innan krävs, förstås. Den skriver inte tomma data. Ju snabbare CPU du har desto snabbare går det förstås. Inga config filer eller nåt sånt. Typiskt krävs det ett kommando.

Du kan ta ut diskarna i ZFS raidet och stoppa in i vilken ZFS dator som helst, t.ex. Apple OS X och importera raidet utan problem. Du kan t.om. byta endianess mellan olika CPU arkitekturer utan problem. ZFS sparar all data endian neutralt.

Jag gillar att ZFS partitioner är dynamiska, de krymper och växer i storlek allteftersom du vill. Du kan sätta gränser, typ, den får inte växa mer än 100GB. Så tanken är att varje användare ska ha en egen partition (dvs filssystem). Ingen formatering eller så. Det är lika enkelt och snabbt som att skapa en katalog.

NakedApe,
Jag vet att det hela tiden sker massa kontroller överallt, jag är inte okunnig om det. Men alla förlitar sig på att hårdvaran tar hand om felkontrolleringen. T.ex. skrev jag att 20% av ytan på en stor disk är dedikerad till felkontrollering, så jag är inte ovetandes om att det sker felkontroller. Men ZFS litar inte på någon hårdvara, och är designad för att saker kommer att gå snett - och kan handskas med det. Som Bonwick skriver:

"The job of any filesystem boils down to this: when asked to read a block, it should return the same data that was previously written to that block. If it can't do that -- because the disk is offline or the data has been damaged or tampered with -- it should detect this and return an error.

Incredibly, most filesystems fail this test. They depend on the underlying hardware to detect and report errors. If a disk simply returns bad data, the average filesystem won't even detect it."

Jag vet att det även behövs backup, men jag har inte råd med en tape backup. Jag kör utan backup och håller tummarna!

"Såvitt jag vet stödjer inte ZFS expansion av RAIDZ/RAIDZ2-arrayer. Både det och förminskning av arrayer (genom att plocka bort en disk) lär vara på gång dock."

En ZFS raid består av flera grupper av diskar, dvs vdev. Du kan adda en ny grupp, om du vill, till ett ZFS raid. Men om gruppen består av bara en disk så har du ingen redundans i den gruppen. Det är illa. Har du redan ett zfs raid med 4 diskar, så bör du adda en ny grupp som har säkerhet även i den gruppen. T.ex en grupp med 2 diskar som speglar varandra så du har säkerhet även i den nya gruppen. Eller en likadan grupp om 4 diskar.

Du kan alltså inte öka på/minska antalet diskar i en redan skapad grupp. Men den funktionen är på gång. Att bara byta ut diskarna mot större är inga problem.

Saddam skrev
"Som jag sagt, en enkel CPU + 4 diskar i ZFS ger dig 120MB/sek. Stoppar du i 7 diskar får du mycket mera speed. etc. Jag har skrivit om typiska överföringshastigheter med ZFS i tidigare inlägg."

NakedApe skrev
"Den här typen av generaliserande påståenden gör att man omöjligt kan ta dig på allvar. Vad pratar vi för kontrollerkort, buss, diskar, arraytyp, dataset och I/O-karakteristik? Är det stora läsningar, små skrivningar, blandad access etc?"

Jag har bara skrivit ned några typiska uppgifter vad folk rapporterar. Då har de typiskt en vanlig AMD dual core modell klenare, och några SATA 7200 varvs diskar i ett chassi. Jag föreslår att du mailar dem och begär en fullständig redogörelse om du vill veta mera? Dont shoot the messenger? Jag vet tyvärr inte mer än det jag läst av deras redogörelser.

4 diskar = 120MB/sek (sustained read/write)
http://blogs.sun.com/barts/entry/new_home_server#comments

7 diskar = 440MB/sek
http://opensolaris.org/jive/thread.jspa?threadID=54481

48 diskar = 2 GB/sek
http://milek.blogspot.com/2006/11/thumper-throughput.html

Här har du några Bonnie++ benchar ZFS vs Linux vs BSD
http://www.phoronix.com/scan.php?page=article&item=os_threewa...

RonnyLov skriver att hans ZFS server trycker ut 90MB/Sek på en GBit nätverk numera. Och hans budget låg på 7000-8000, det var alla 5 st terabyte diskarna som kostade mest.

"I samma svepande anda påstår du att ZFS är billigare än hårdvarubaserad RAID men du har inte ställt upp några kriterier överhuvudtaget på vad behoven/kraven är. Det är inte särskilt svår att föreställa sig ett scenario där ZFS extra processorlast gör det till ett dyrare alternativ om man räknar in elförbrukning (vilket i de allra flesta fall är en betydligt större kostnad än inköpspriset)."

Åh, detta är väldigt ovetenskapligt som du märker. Jag gör inte anspråk på att skriva en vetenskaplig artikel med 23 källor. Mina luddiga kriterier, var att
du vill bygga en enkel hemma filserver och att du spenderar typ 7000kr eller så. För den summan vill du få bästa möjliga prestandan och att dina data är säkra. Jag kanske var lite otydlig med att detta gäller hemma filserver. Tyvärr har jag inte skrivit några formella kravspecar, om du hoppades på det.

Sen har jag svårt att se att ZFS extra cpu last gör det till ett dyrare alternativ än ett HW raid. Hur mycket kostar några procent extra cpu last, i watt? Ett par tusen kronor??? Vi pratar om en hemma filserver. De har ofta klena CPUer. Det finns inte en chans att de spenderar så mycket cpu så den summan blir några tusen.

ZFS är numera optimerat så det kräver ungefär lika mycket CPU som ett vanligt filsystem, har jag läst nånstans på SUNs ZFS mail listor.

"Jag instämmer i emigrating12s analys: du är ovillig eller rent av oförmögen att inse att alla inte ser ZFS som "den ultimata lagringslösningen" och alla argument för att andra lösningar kan ge samma--eller bättre--säkerhet, prestanda etc, hur insatta eller kompetenta de än är så ogiltigförklarar du dem för att de inte passar din bild av hur saker och ting förhåller sig."

Det var tråkigt att du känner så. Jag håller med om att denna tråd kanske är vinklad för att jag utgår från mig själv och min situation: "billig hemma server för några tusen". Och däri får inte ett HW raid kort för 5000kr plats i budgeten, när hela budgeten är på kanske 7000kr.

Men vi kan ändra på kriterierna om du känner att jag är enkelspårig? Vi tar istället en budget på 5000+7000=12 000kr för en hemma filserver så kan vi även få in HW raid med i diskussionen? Jag vet dock inte om såna billiga kort ger någon vidare säkerhet, enligt det jag fått reda på om HW raid?

"Slutligen vill jag tillägga att jag verkligen gillar både Solaris och ZFS men som jag sade tidigare: man blir lite trött på mässandet."

Det var lite tråkigt att du finner det störande, men jag är lite nykär just nu. Lite svårt att sluta prata om min nya tjej hela tiden. Jag får försöka tona ned lite, och du kanske kan låta bli att titta in i mina ZFS trådar jag skapar?

Moire,
Ja, det är ett problem att om du vill köra ZFS så måste du köra Unix: Solaris, BSD eller Apple OS X. Tyvärr. ZFS är inte portat till andra OS vad jag vet, just nu. Men det kanske kommer eftersom det är öppet?

EDIT:
Här ser vi att en HW raid kan göra felkontroller, när man begär så. Det är typ som fsck i Linux. Problemet är dock att man måste boota om och göra detta i BIOS, du kan alltså inte använda HW raidet under tiden du gör kontrollen. Jag hoppas detta inte gäller för de flesta HW kort?
http://www.rm.com/Support/TechnicalArticle.asp?cref=TEC499467

EDIT2:
Här står utförligt om matematiken kring Raid6 och hur den kan reparera fel:
http://kernel.org/pub/linux/kernel/people/hpa/raid6.pdf

Marc skriver om den artikeln:
"The paper explains that the best RAID-6 can do is use probabilistic
methods to distinguish between single and dual-disk corruption, eg.
"there are 95% chances it is single-disk corruption so I am going to
fix it assuming that, but there are 5% chances I am going to actually
corrupt more data, I just can't tell". I wouldn't want to rely on a
RAID controller that takes gambles :-)"

Detta är ju inte bra. En HW raid som gissar, och det är chans att den korruptar än mera data? Hmm... Jag tror jag håller mig till ZFS.

Permalänk

Nu har det blivit för långa poster för mig att följa med

Men ett par observationer bara - du kör ZFS på grund av säkerhet, men samtidigt kör du helt utan backup? Vad händer den dagen som kåken brinner ned eller din server stjäls? Dock har du ett bra poäng - "vem kör tape backup hemma?".. Tja, allt för få räknar jag med Jag tittar själv på tape stationer för tiden, men priserna är gigantiska med tanke på hur många TB jag behöver backa upp så för tiden håller jag mig till en RAID1'a som backar upp "personliga" data - men det ville varit jäkla bekvämt att kunna ta en full backup på f.ex \Shares\Video\TV directory't utan att det ska kosta flera tusen.

Du pratar också om "hemma" servers, men samtidigt visar du till information från bl.a. CERN som visar att HW RAID är "opålitligt". Den dagen du behöver lagra eller processera like stora datamängder som de gör nede i Geneva så är det helt OK, du ska få lov att använda dem som en referans, men fram tills då - leta gärna fram hemma användare som har råkat ut för likadana problem direkt i anslutning till deras HW RAID arrayer

Slutligen - RAID6 (vilket är vad jag själv kör mest av) tar såklart en gamble om den hittar ett fel i eftertid, men det är ju en väldigt "educated guess" eftersom den har (ta en av mina sexor som exemel) 12 diskar att "jämföra" med. För det första är chansen för att det lagrade datat är fel väldigt liten i sig - men om det skulle visa sig vara skadat är risken för att det rör sig om multi-disk fel ännu mindre. Jag känner mig också 100% säker på att det som lagras till disk in-the-first-place är precis det som jag förväntade mig att skrivas - inte bara har jag stabila PSUs men jag har RAM minne med fel korrigering och ett raidkort som kollar det den har skrivit.

Lagrar du kartor över WMD så är det klart att ett kryss för mycket eller litet spelar väldigt stor roll, men igen - för hemmabruk är både chansen att det ska hända och att det ska vara på liv och död ytterst minimal.

Visa signatur

on the internet since 1993
[ Geek - Dad - Programmer - RC enthusiast - Technology evangelist ]

Basically, you’re the guy who survived the shipwreck because you had a lifeboat, and now you’re standing on the shore telling the people still drowning that the ocean isn’t that bad.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av saddam

"Jag instämmer i emigrating12s analys: du är ovillig eller rent av oförmögen att inse att alla inte ser ZFS som "den ultimata lagringslösningen" och alla argument för att andra lösningar kan ge samma--eller bättre--säkerhet, prestanda etc, hur insatta eller kompetenta de än är så ogiltigförklarar du dem för att de inte passar din bild av hur saker och ting förhåller sig."

Det var tråkigt att du känner så. Jag håller med om att denna tråd kanske är vinklad för att jag utgår från mig själv och min situation: "billig hemma server för några tusen". Och däri får inte ett HW raid kort för 5000kr plats i budgeten, när hela budgeten är på kanske 7000kr.

Men vi kan ändra på kriterierna om du känner att jag är enkelspårig? Vi tar istället en budget på 5000+7000=12 000kr för en hemma filserver så kan vi även få in HW raid med i diskussionen? Jag vet dock inte om såna billiga kort ger någon vidare säkerhet, enligt det jag fått reda på om HW raid?

För 5000kr för man ju inte mycket för här i sverige men handlar du från tex tyskland så kan du hitta fina kort med 8 portar för det priset lägg på några xx tusenlappar så finns det även 24portars att hitta. Jag fick mitt kort 8portars Areca kort med stöd för Raid6 för drygt 4500:- inkl frakt, samma kort kostade i sverige 7000:-.

Men det är ju ändå relativt vad är det du är ute efter? Bäst säkerhet? bra processor/minne? flest portar osv.

[QUOTE]
EDIT:
Här ser vi att en HW raid kan göra felkontroller, när man begär så. Det är typ som fsck i Linux. Problemet är dock att man måste boota om och göra detta i BIOS, du kan alltså inte använda HW raidet under tiden du gör kontrollen. Jag hoppas detta inte gäller för de flesta HW kort?
http://www.rm.com/Support/TechnicalArticle.asp?cref=TEC499467

[/QUOTE]

De flesta moderna raidkort har online check, tex min Areca kort så loggar jag in i servern startar upp http programvaran som följer med raidkortet däri kan man göra i storsett allt som man kan göra i bios. Checka raiden, minska, öka, skapa ny raid osv.

Allt detta online via webbläsare och utan minsta downtime eller omstart.

Visa signatur

R.I.P Robert 2004-01-29 (klasskompis) Läs: Artikel Nr 1. | Artikel Nr 2. | Artikel Nr 3.

Permalänk
Avstängd

Nu behöver man ju inte ha backup omgående bara för att man har en filserver. Raid, oavsett modell, skyddar mot vissa fel och misstag. Bara för att man gjort sig en filserver behöver man ju inte stanna där. Två terabyte extern lagring via firewire eller usb kostar inte många kronor idag, exempelvis. Ingen mening med att överdriva det hela och skaffa bandstationer, bättre att dra en ordentlig backup då och då och förvara den hos någon släkting eller på jobbet.

Permalänk

Självklart, men har man endel TB lagringsplats börjar det bli kostbart att lägga över på externa diskar. Jag har bortimot 10TB med video lagrat på min server i RAID6 vilket ej är backed up - om oturen skulle vara framme så kan jag återställa 95% av detta från fysiska LD, DVD, HDDVD och BluRay skivor som jag har men eftersom jag har konverterat över hälften till h.264 med AC3/DTS i en MKV container (och håller fortfarande på med resten) kommer en hel jävla massa tid gå förlorad.

Att backa upp detta till externa (eller egna överhuvudtaget) diskar tycker jag kostar för mycket och blir för "svårt" att hantera.

Letar fortfarande efter en bättre använd "enterprise" tape enhet som jag kan sätta i racket och köra full backups en gång i månaden eller så

Visa signatur

on the internet since 1993
[ Geek - Dad - Programmer - RC enthusiast - Technology evangelist ]

Basically, you’re the guy who survived the shipwreck because you had a lifeboat, and now you’re standing on the shore telling the people still drowning that the ocean isn’t that bad.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av emigrating12
Nu har det blivit för långa poster för mig att följa med

Jag instämmer, men det är så många kommentarer som jag måste svara på. Man vill ju inte nonchalera folk. Det är taskigt.

Citat:

Ursprungligen inskrivet av emigrating12
Men ett par observationer bara - du kör ZFS på grund av säkerhet, men samtidigt kör du helt utan backup? Vad händer den dagen som kåken brinner ned eller din server stjäls?

Jag skyddar mig mot sannolika fel, precis som du påpekade förrut: "Man kan ju inte vara helt nojig och skydda sig mot allting". Att kåken brinner upp eller att jordbävning inträffar, etc är ytterst osannolikt och kommer kanske aldrig att hända under min livstid. De är yttre fel, krafter i den fysiska världen, saker som ZFS inte kan handskas med. Men inre fel, saker som sker i datorn, flippade bitar etc, kan ZFS handskas med och bör kunna reparera precis alla de felen som ligger inom ZFS domäner. För varje 10 TB som jag läser eller skriver så flippas bitar enligt statistiken. Att jag läser/skriver 10 TB händer alltså hela tiden och fel som händer hela tiden måste jag ju skydda mig emot mha ZFS.

Citat:

Ursprungligen inskrivet av emigrating12
Du pratar också om "hemma" servers, men samtidigt visar du till information från bl.a. CERN som visar att HW RAID är "opålitligt". Den dagen du behöver lagra eller processera like stora datamängder som de gör nede i Geneva så är det helt OK, du ska få lov att använda dem som en referans, men fram tills då - leta gärna fram hemma användare som har råkat ut för likadana problem direkt i anslutning till deras HW RAID arrayer

Jag hänvisar till information från CERN, pga jag fick frågor av Dundermuppen om jag t.ex. trodde att HW raid skriver i blindo. Han verkade mena att HW raid gör lika många felkontroller som ZFS och att det är lika säkert som ZFS. Därför googlade jag lite snabbt och hänvisade t.ex. till länkar där HW raid ballar ur. T.ex. verkade du mena att du aldrig kan råka ut för silent corruption eftersom du har en UPS som renar strömmen.

Men CERN säger att trots HW raid och UPS och ECC minne och precis alla säkerhetsmått för stora lagringslösningar, så fick de silent corruption. CERNs data är värda miljarder kr. De har byggt stora maskiner för miljarder som ska ska producera fysikalisk information så alla forskare kan analysera datat. Vad händer om de data de utvunnit efter 10 år förberedelse drabbas av silent corruption? Analyserna blir fel. CERNs data måste vara säkra, eftersom datat kostar så mycket. De har datalagringsproffs som kör precis alla säkerhetsmått som finns. Och ändå får de silent corruption. Om de får silent corruption, så kanske du oxå får det?

Silent corruption - betyder just att sysadmin aldrig får reda på att datat förstörs, pga HW raidet inte själv vet om det. HW raidet rapporterar felaktigt att allt är bra, så du tror att dina data är säkra. Precis CERNs slutsats; "Previously thought data was safe".

Så mina länkar var ett bevis på att silent corruption kanske kan inträffa, även om du har HW raid 6 och UPS som renar strömmen. Precis det jag försökt säga hela tiden. Att silent corruption kan bero på många saker, det räcker inte att köra HW raid och ha en UPS. Du är inte immun. Om CERN inte är immuna, hur kan du vara det?

Citat:

Ursprungligen inskrivet av emigrating12
Slutligen - RAID6 (vilket är vad jag själv kör mest av) tar såklart en gamble om den hittar ett fel i eftertid, men det är ju en väldigt "educated guess"
...
Jag känner mig också 100% säker på att det som lagras till disk in-the-first-place är precis det som jag förväntade mig att skrivas - inte bara har jag stabila PSUs men jag har RAM minne med fel korrigering och ett raidkort som kollar det den har skrivit.

Du säger att när RAID6 ser ett fel, så gissar den vilken typ av fel det är och reparerar den typen av fel - men det är en ren gissning. Tänk om det är en annan typ av fel? Och RAID5 gör aldrig parity check vid läsning. Trots detta säger du att du är 100% säker på att dina data är säkra? Och enligt stycket ovan, så drabbas CERNs proffs och dyra servrar av silent corruption med jämna mellanrum, utan att de visste det. Hmm?

Citat:

Ursprungligen inskrivet av RoleX
Men det är ju ändå relativt vad är det du är ute efter? Bäst säkerhet? bra processor/minne? flest portar osv.

Om vi jfr en lagringslösning för hemma filserver (dvs kring 7000kr): en lösning med HW raid kort, eller en lösning med ZFS istället - vilket ger högst prestanda, är säkrast, ger flest funktioner och är enklast att hantera?

Ditt Areca kort verkar trevligt, och ett väldigt bra pris oxå! Bra att man kan göra felkontroller av hela raidet medan Raidet är online, det är det minsta man önskar efter vant sig vid ZFS. En fråga, vet du vad för sorts felkontroller kortet gör? Har du det beskriven i manualen eller så? Kan man maila dem och fråga? Eller är felkontrollen som ett vanligt HW raid kort, t.ex RAID5 gör aldrig parity check vid läsning? Annan fråga, kan du göra så många snapshots som du vill? T.ex. 10,000 snapshots, och de lagrar bara den lilla ändringen sedan sist? Om du kan göra snapshots, kan du boota från valfri snapshot? Det är bra om du får t.ex. virus eller om din OS patch gör datorn instabil - bara boota om till en tidigare snapshot och förstör den snapshoten du inte gillar. De kataloger du skapar, växer och krymper de i storlek? Kan du sätta quota på katalogerna?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av saddam
Annan fråga, kan du göra så många snapshots som du vill? T.ex. 10,000 snapshots, och de lagrar bara den lilla ändringen sedan sist? Om du kan göra snapshots, kan du boota från valfri snapshot? Det är bra om du får t.ex. virus eller om din OS patch gör datorn instabil - bara boota om till en tidigare snapshot och förstör den snapshoten du inte gillar. De kataloger du skapar, växer och krymper de i storlek? Kan du sätta quota på katalogerna?

Att försöka sänka traditionella RAID-lösningar genom att framhålla en mjukvaras fördelar, blir lite avigt. Äpplen och päron.

Du borde fundera på att inta en mer öppen hållning i dina resonemang. Försök att hjälpa till att hitta den bästa lösningen i stället för att helt sonika proklamera att ZFS är bäst, till synes utan mycket egentlig insikt i alternativen. Önskar du fortsätta med din nuvarande stil kanske du skulle starta en sida/tråd där du kan sprida information om ZFS lite mer förutsättningslöst. Då slipper du att, likt en papegoja, fylla var och varannan tråd med samma påståenden.

Visa signatur

Jag tänkte skriva något klyftigt här

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av saddam

Jag skyddar mig mot sannolika fel, precis som du påpekade förrut: "Man kan ju inte vara helt nojig och skydda sig mot allting". Att kåken brinner upp eller att jordbävning inträffar, etc är ytterst osannolikt och kommer kanske aldrig att hända under min livstid. De är yttre fel, krafter i den fysiska världen, saker som ZFS inte kan handskas med. Men inre fel, saker som sker i datorn, flippade bitar etc, kan ZFS handskas med och bör kunna reparera precis alla de felen som ligger inom ZFS domäner. För varje 10 TB som jag läser eller skriver så flippas bitar enligt statistiken. Att jag läser/skriver 10 TB händer alltså hela tiden och fel som händer hela tiden måste jag ju skydda mig emot mha ZFS.

Och vad händer om en av dina kontrollers får kramp en dag och skriver tarmludd över fyra diskar samtidigt. Då hjälper väl inte din zfs dig? Det gör inte en hårdvaruraid heller å andra sidan, men diskar på fler kontrollers ger flera möjligheter till fel.

Ställer mig också väldigt skeptisk till en inverterad bit/10TB. Jag har en lagom stor filserver här hemma som rymmer cirka 4-5 TB. Varje vecka kopierar jag över detta till en "slaskserver" som innehåller en våldsam bunke avlagda diskar varefter jag rartestar hela köret. Har ännu inte fått något fel på dessa tester och jag borde ju fått åtminstone ett fel/månad om man räknar lågt.
Eftersom detta är en ren backuphistoria så innehåller den bitvis ganska slitna komponenter så sannolikheten för fel borde vara högre.
Jag inbillar mig att det finns inbyggd kontroll mot 90% av felen du framhärdar i vanlig pchårdvara.
Jag har ingen fakta att backa upp detta med, bara min kanske inte helt representativa personliga erfarenhet.
Utöver detta har jag i mitt yrke inte upplevt något sådant här där problemet inte kunnat härledas till direkt trasig hårdvara.
Min uppfattning är att det är långt mer sannolikt att en disk dör helt eller att användaren gör något dumt än att en illvillig bit oupptäckt skulle inverteras någonstans på en disk.

Men strunt i detta nu. Har blivit lite intresserad av att testa zfs lite. Har länge sökt efter ett smidigt sätt att virtualisera min lagring. Detta kanske är ett sätt.
Kan man med zfs lägga till fler och fler diskar efterhand utan att behöva bygga om raiden? Borde gå tycker man. Viktigare än så, kan man ta bort diskar under kontrollerade former och bibehålla redundansen? Dvs "förvarna" om att jag vill ta bort disk 5 och sen låta datorn stuva om i datat tills den går att ta bort? Kan man ha olika stora diskar i samma zfs och ändå ha redundans?

Permalänk
Medlem

Hej,

Kan vi inte lägga ned den här "min-är-större-än-din"-diskussionen? Klart är väl att man väljer den lösning som passar beroende på pengar/kunskap/intresse/behov?

Jag personligen är sjukt frälst på ZFS men håller med om att det inte är helt snutet ur näsan att sätta upp en OpenSolaris med CIFS om man inte jobbat med nåon form av Unix/Linux tidigare. Förmodligen kan en apa följa instruktionerna som finns publicerade på nätet, men om något knasar så är man "rökt" att rätta problemet om man inte har någon erfarenhet.

Jag satt upp en OpenSolaris på ett sprojtans nytt Asus-kort och konstaterade att det inte fanns en drivrutin för det inbyggda Ethernetkortet. Efter en del googlande så fann jag en tredjepartsdrivrutin som löste problemet. Inte för att jag är någon superfena på Solaris, men jag *tror* att någon helt utan erfarenhet hade haft större problem än mig.

Låt oss lyfta diskussionen ett snäpp.

//Calimero

Visa signatur

"ZFS - Practicing Safe Hex"

Permalänk
Avstängd

okay, jag kan ta att man inte tror sig tutta eld på sitt hus men användarfel då? Ingen raidlösning i världen skyddar mot exempelvis syndromet "damp på delete" - knappen Extremfall men ni vet vad jag menar.

Permalänk
Avstängd

Ok, nu är det flera som sagt ifrån. Då är det bäst att man lyssnar.

Jag kan ibland tänka på en viss tråd i Programmeringsavdelningen, det kan finnas personer som är svåra att komma överens med med. Och jag vill inte vara som sådan. Nu verkar det som jag har samma attityd och det vill jag inte ha. Jag vill inte vara oresonlig. Så hur gör vi nu? Det låter bra att vi lyfter diskussionen ett snäpp. Hur ska vi göra det?

Dundermuppen,
Vill du ha bäst redundans, rekommenderar man ZFS med 2 diskar som säkerhet, dvs raidz2 istället för raidz1. Du kan köra OpenSolaris i Virtualbox och skapa några några ZFS diskar däri och misshandla dem. Prova på lite.

"En ZFS raid består av flera grupper av diskar, dvs vdev. Du kan adda en ny grupp, om du vill, till ett ZFS raid. Men om gruppen består av bara en disk så har du ingen redundans i den gruppen. Det är illa. Har du redan ett zfs raid med 4 diskar, så bör du adda en ny grupp som har säkerhet även i den gruppen. T.ex en grupp med 2 diskar som speglar varandra så du har säkerhet även i den nya gruppen. Eller en likadan grupp om 4 diskar.

Du kan alltså inte öka på/minska antalet diskar i en redan skapad grupp. Men den funktionen är på gång. Att bara byta ut diskarna mot större är inga problem."

Damodred,
Då har man snapshots så man kan alltid backa tillbaka. Raderar man ZFS raidet, så kan man undo har jag för mig.

Permalänk
Avstängd

Jag antog att det var det du syftade till när du nämnt Snapshots. Fråga: Vad tar en snapshot för storlek i förhållande till redan använt utrymme? Använder själv avbilder med Acronis True Image men får för mig att det här skiljer en aning.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Damodred
Jag antog att det var det du syftade till när du nämnt Snapshots. Fråga: Vad tar en snapshot för storlek i förhållande till redan använt utrymme? Använder själv avbilder med Acronis True Image men får för mig att det här skiljer en aning.

Snapshots tar inget utrymme alls (de kanske tar 1-2Kb hårddisk utrymme). Därför kan du ta en snapshot varje minut som en kille gjorde, han hade typ 10.000snapshots som tog upp 4GB totalt (endast de nya ändringarna lagrades). Han kunde alltså backa till vilken tidpunkt han ville mha Time Slider, funkar ungefär som Apples Time Machine, men det är enklare GUI. Plus att Apples lösning kräver extra hårddisk.

http://java.dzone.com/news/killer-feature-opensolaris-200

Permalänk
Medlem

Den största nackdelen med zfs för hemma server just nu är att man inte kan addera diskar ochg expandera radiz partitionen utan att bygga om hela arrayn.

s.k. online capacity expansion. När det kommer ska jag nog bygga mig en opensolarisburk. TRots mycket ringa erfarenheter med *nix

Visa signatur

Nätverksnörd

Permalänk
Avstängd

En ZFS raid består av en grupp av diskar (dvs "vdev"), säg 5 st. Du kan alltid addera en ny grupp av diskar till ZFS raidet. Sen om gruppen du addar, består av en enda disk eller 5 st, spelar ingen roll.

Men du kan inte utöka en redan befintlig grupp genom att lägga till en disk. Inte heller kan du ta bort en disk från en redan befintlig grupp.

Dock rekommenderas inte att man skapar en stor grupp som består av många diskar, t.ex 12 st, av SUNs lagringsexperter. En grupp i ZFS raid ska vara liten. Jag vet inte riktigt varför. Men ett skäl kan vara att ZFS målsättning är hög säkerhet. Om du skapar ett ZFS raid på 12 diskar, så får du inte vidare hög säkerhet (maximalt en disk kan krascha). Om du istället speglar 2 diskar i taget, så du får 6 speglade grupper som man skapar en enda ZFS raid utav, och du får då mycket högre säkerhet (maximalt 6 diskar kan krascha).

T.ex. SUNs Enterprise storageserver Thumper kommer med 48 vanliga 7200 varvs sata terabyte diskar + AMD opteron + 8GB RAM och den skriver 2GB/sek och läser 3GB/sek. SUN rekommenderar inte att man skapar en ZFS raid bestående av 48 diskar. Istället rekommenderar SUN att man skapar fel redundanta grupper om kanske 6-7 st diskar och lägger alla de grupperna i en enda ZFS raid. Detta ger mycket högre säkerhet än en enda ZFS raid med 48 diskar, där endast 1 disk tillåts krascha.

Så det jag försöker säga, är att om du har en ZFS raid så vill du inte utöka den hela tiden. Istället vill du ha flera små grupper. Det händer inte ofta att man vill utöka en befintlig grupp. Därför att det finns en rekommenderad max storlek på kanske 7 diskar, på en grupp. Om du redan har 7 diskar, så vill du inte lägga till ytterligare diskar. Istället vill du lägga till en ny grupp - vilket är möjligt redan nu.

(Förtydligande, när man skapar ZFS raidet anger man om man vill ha en disk som redundans (raidz1) eller om man vill ha 2 diskar som redundans (raidz2). Är man nojjig eller kör skarp drift på företag, så rekommenderas raidz2, för då kan 2 diskar krascha i ZFS raidet utan problem. Det kan tydligen hända att om en disk kraschar och man byter disk, så kommer den ökade disk aktiviteten när raidet lagas orsaka att även en till disk kraschar. Då är raidz2 bra, för den klarar av detta scenario. Men för en hemanvändare med 4-5 diskar tror jag raidz2 är overkill. Eller om man är väldigt nojjig så kan man dessutom adda diskar som "hot spare" i efterhand. Dvs, lägg till en/flera diskar som idlar. När en disk kraschar så kommer den idlande disken automatiskt bli aktiv och ta över den kraschade diskens roll och reparera ZFS raidet).

Dundermuppen,
Om man blandar diskar utav olika storlekar i ZFS raid, så kommer det skapas en raid med den minsta diskens storlek. Exempel, man har 100GB + 250GB + 250GB, så kommer det skapas en ZFS raid: 100GB x 3. Byter man ut 100GB mot en 500GB, så kommer ZFS raidet växa till 250GB x 3.

Permalänk
Medlem
Citat:

[i]
Dundermuppen,
Om man blandar diskar utav olika storlekar i ZFS raid, så kommer det skapas en raid med den minsta diskens storlek. Exempel, man har 100GB + 250GB + 250GB, så kommer det skapas en ZFS raid: 100GB x 3. Byter man ut 100GB mot en 500GB, så kommer ZFS raidet växa till 250GB x 3. [/B]

Trevligt!

Ett sätt att expandera Raiden, men att utöka med fler diskar går ju inte utan backup/omskrivning?!

Blir datat på den g:la Raiden kvar?

Permalänk
Medlem

Fråga till Saddam(?):

Jag förstår nu hur ACL:er funkar, MEN: När jag slår kommandot "ls -dv" så listas inga "ACL:er" såsom det beskrivs i exemplen hos SUN. Måste ACL aktiveras via ZFS-kommandot först??

//Calimero

Visa signatur

"ZFS - Practicing Safe Hex"

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av calimero
Fråga till Saddam(?):

Jag förstår nu hur ACL:er funkar, MEN: När jag slår kommandot "ls -dv" så listas inga "ACL:er" såsom det beskrivs i exemplen hos SUN. Måste ACL aktiveras via ZFS-kommandot först??

//Calimero

Det är för att GNU ls ligger för Suns ls i PATH, ange explicit sökväg

/usr/bin/ls -v

istället eller möblera om PATH efter önskemål.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av jookeer
Trevligt!

Ett sätt att expandera Raiden, men att utöka med fler diskar går ju inte utan backup/omskrivning?!

Blir datat på den g:la Raiden kvar?

Precis, du kan inte utöka/minska en redan befintlig grupp i ZFS raidet. Du kan däremot ändra på gruppen genom att byta ut hårddiskarna mot större.

Jag har nu 4 st 500GB diskar i ZFS raid. Jag tänkte byta ut en disk i taget mot 1TB disk, och låta ZFS raidet reparera sig mellan varje byte. Efter 4 byten har jag då 4 st terabyte diskar istället. Och det gamla datat är kvar förstås.

Men jag har nu ändrat mig. Jag vill istället ha 5 st TB diskar, dels pga ju fler diskar jag kopplar in, ju högre prestanda. Men jag vill heller inte ha för många diskar i chassit, så 5 diskar i ZFS raidet tror jag är en bra siffra för en hem användare.

Då får jag koppla in alla 5 diskar via SATA kort och kopiera över alla data från de 4 st 500GB diskarna till de 5 st TB diskarna istället. Sen får jag koppla loss det gamla ZFS raidet.

Alternativet är att jag skapar en ny grupp av de 5 st TB diskarna, och addar den gruppen till min ZFS raid som redan består av min gamla grupp av 4 st 500 GB diskar, vilket skulle ge mig en ZFS raid (bestående av två grupper om tillsammans 9 diskar, där en disk kan krascha i varje grupp utan problem) som kan lagra 1.5TB + 4TB = 5.5TB. Men äsch, det räcker med 4 TB för mig. Jag rippar en 500GB disk att ha som system disk och skänker bort de andra.

Men eftersom min ZFS raid nu består av 5 diskar, som är ett optimalt antal diskar för mig, så blir det enkelt att ändra för mig i framtiden när det kommer 2TB diskar. Jag byter ut en disk i taget och får då en raid på 8TB. 8TB borde räcka ett tag för en hemanvändare, hoppas man.

Permalänk
Medlem

Grejen är att man först har 2 diskar sedan köper man en till i halvåret kanske, sakta men säkert vill man ha en större array,
men zfs klarar inte en sådan enkel sak som att expandera en raid...

Visa signatur

Nätverksnörd