Hårdvaruraid vs ZFS, på hemmabygge?

Permalänk
Avstängd

Hårdvaruraid vs ZFS, på hemmabygge?

Diskussionen fortsätter från:
http://www.sweclockers.com/forum/showthread.php?s=&threadid=7...

Citat:

Ursprungligen inskrivet av emigrating12
All I see is blah blah blah.

5000,- är mycket för ett kort för hemmaanvändning, men hur många portar får du på det kortet? Hur mycket kostar ett icke RAID kontrollerkort med samma antal SAS eller SATA portar? Finns det engång? Ska du jämföra får du fan mig jämföra lika med lika.

Fakta;
[*] mitt 3ware kort är snabbare än din quad core software lösning (~200MB/s write i RAID5 med fyra diskar - samma som jag får i RAID0)
[*] kortet har 24 portar och kostade mig 6500,-
[*] det fungerar oavsett OS och behöver inga nya/extra kunnskaper som en normal Svensson inte redan har
[*] det använder inga CPU cycles på en redan "busy" server

Det viktigaste argumentet ovan är det sista; läs det gärna igen "det använder inga CPU cycles på en redan busy server"... Med andra ord så kommer min SQL DB query eller en av mina 12 virtuella maskiner inte slöas ned på grund av att det händer mycket på filsystemet just nu.

Men iallafall, låt oss hitta ett (eller flera kontrollerkort) som totalt ger mig 24 portar (de sex/åtta på moderkortet räknas ej eftersom de också är i användning). Vad blir priset per port? I mitt fall är det ~270,- - för att ditt argument ska hålla vatten bör du kunna hitta en lösning som kostar minst hälften. Samtidigt som du inte kan köpa 6 stycken 4-portars kort eftersom de inte kommer passa på mitt (eller något) huvudkort.

Det var kostnaden ute av vägen, så då återstår egentligen bara ditt "säkerhets" argument; vilket jag räknar som total bullshit. Mitt kort har som sagt batteribackup och server'n står även på en UPS - det betyder noll "write hole errors" och inga bitar kan bli "flippade" på grund av en spännings spike då UPSen "rensar" elen som tillförs server'n.

Har du andra argument för varför jag ska köra ZFS istället för min HW RAID?

Denna diskussion gäller hemma filserver. När jag säger filserver, så menar jag ett hemmabygge.

Jag kör ett 8 ports SATA kort för 1000kr:
http://www.mullet.se/product.html?product_id=133690
Det blir drygt hundralappen per SATA port. Om man tar 3 såna kort så får man 24 SATA portar, det kostar 3000 kr. Har man redan 6-8 SATA portar på sitt moderkort, så behöver man bara 2 sådana kort, vilket blir ännu billigare. Mindre än halva priset jfrt med ditt RAID kort för 6500kr. Bara ditt RAID kort kostar nästan som en hel hemma filserver, typ.

Hur ofta behöver man 24 diskar i en filserver? En filserver kör vanligtvis 4-5 SATA diskar. Ska man köpa ett HW raid kort för 6000kr till 4 diskar? Blir inte det lite väl dyrt? Varför inte bara använda de 6-8 SATA portarna på sitt moderkort? Så jag förstår ärligt talat inte varför man ska köra hårdvaruraid på ett hemmabygge.

Angående prestandan, sant är att du kan få ut högre prestanda med ett dyrt HW raid kort. Men du blir låst till det kortet, som inte klarar fler än ett visst antal diskar, vill du ha flera diskar måste du köpa ett nytt kort. Om jag köper en bättre CPU så ökar prestandan på min ZFS filserver, och jag kan även adda fler och fler diskar. Jag kan t.ex. köpa en Core i7 för hälften av vad ett raid kort kostar, vilken även ger mycket kraft. Nya versioner av ZFS kommer att ge mig deduplicering, och andra funktioner. Gratis, och ZFS uppgraderas med ett kommando. För att uppgradera HW raid med nya funktioner så måste man köpa ett bättre och ännu dyrare kort.

Du får alltså bättre prestanda med HW raid precis som du påpekat, men jag tror att ZFS prestandan räcker till för ett hemmabygge? Vem behöver mer än 440MB/sek läsning för hemma bygge?

En klen AMD dual core 4000+ med 7 st vanliga SATA 7200 varvs diskar, ger 440MB/läsning och 250MB/skrivning. Ju fler diskar du addar till ZFS, desto snabbare går det. Du får nästan true platter speed.
http://opensolaris.org/jive/thread.jspa?threadID=54481

(Skulle du stoppa in 48 diskar i en Quad core med ZFS, så skriver du mer än 2GB/sek
http://milek.blogspot.com/2006/11/thumper-throughput.html
Men 48 diskar är inte längre ett hemmabygge. Poängen är dock att ZFS skalar uppåt bra, och att man kan få ut bra prestanda samtidigt. Ett HW raid tar stopp, du kan inte adda fler och fler diskar, du måste köpa fler kort istället.)

Det är även sant att ZFS bränner CPU, medan HW raid inte gör det. Där har du fullständigt rätt och jag kan inte säga så mycket om det.

Däremot, så anser jag att den stora poängen med ZFS är mitt "säkerhets" argument. Säkerhet kostar CPU, men det är det värt anser jag. Därför att det händer titt som tätt att bitar flippas i det fördolda. Det beror inte bara på strömspikar, det kan bero på precis vad som helst: buggar i BIOS, dåligt RAM (ECC?), dålig Power Supply - läs detta häpnadsväckande:
http://blogs.sun.com/elowe/entry/zfs_saves_the_day_ta
Så jag tror det inte är optimalt att hoppas man är helt immun mot flippade bitar pga man har en UPS som renar strömmen, eftersom det finns så mycket annat som kan gå fel.

För att inte tala om denna länk:
http://queue.acm.org/detail.cfm?id=1317400

"while disk capacities have been doubling every 12 to 18 months, one thing that’s remaining relatively constant is the bit-error rate on the disk drives, which is about one uncorrectable error every 10 to 20 terabytes.

Now for comparison, take a look at, say, Greenplum’s database software, which is based on Solaris and ZFS. Greenplum has created a data-warehousing appliance consisting of a rack of 10 Thumpers (SunFire x4500s). They can scan data at a rate of one terabyte per minute. That’s a whole different deal. Now if you’re getting an uncorrectable error occurring once every 10 to 20 terabytes, that’s once every 10 to 20 minutes—which is pretty bad, actually.

One of the design principles we set for ZFS was: never, ever trust the underlying hardware. As soon as an application generates data, we generate a checksum for the data while we’re still in the same fault domain where the application generated the data, running on the same CPU and the same memory subsystem. Then we store the data and the checksum separately on disk so that a single failure cannot take them both out."

Så ZFS stora fördel som jag ser det, är inte prestandan eller skalbarheten som den ger. Det är istället datasäkerheten. Dina HW raid kort dubbelkontrollerar inte alla läsningar och skrivningar som sker hela tiden. Det gör ZFS. Antag att du upptäcker silent corruption, när skedde det? Hur långt bak i tiden måste du gå med dina backuper för att återställa datat?

Vad är viktigast? Snabbt och osäkra data, eller hyfsat snabbt och säkra dubbelkontrollerade data?

Permalänk

Nu ska vi inte ändra utgångspunkten då ;P

Som sagt, jag använder de 8 portarna på moderkortet (de går till två externa JBOD chassi genom ettpar ML kablar), jag använder också de 24 portarna på 3ware kortet - så då är vi uppe i ~3000,- för dina kontrollerkort, mitt är då drygt dubbla priset, so well done

Om man då tar dessa 3500,- så behöver vi en starkare CPU (i mitt fall två eftersom jag kör en dual xeon setup) och lite mer ram. Slutsumman räknar jag med blir ganska lik som att köpa ett HW kort till att börja med. Ska man även räkna in konfig tid etc vinner min setup ganska självklart - jodå ZFS är enkelt att sätta upp, men eftersom jag kör Windows 2008 server vore jag tvungen att köra Solaris i en VM, vilket i tur betyder att jag vore tvungen att dela ut diskarna "raw" ifrån "Windoze" till min Solaris VM.

Om min server inte användes till både storage och applikation server vore det inga problem; jag kunde kört inn Solaris som enda OS och Bob's my uncle. Men i dessa dagar med virtualiserings och spara energi "maraton" ska man givetvis köra så mycket som möjligt på en fysisk maskin.
Visst kan jag köra upp en egen maskin som storageserver, men då behöver jag dubbla moderkort, cpu, ram och sata kontrollers vilket säkerligen ville kostat det samma eller mer än 3500,- - lägg då till att HW RAID som en bonus ger bättre prestanda... vad väljer man?

Har man inte bruk för 24 portar köper man såklart inte 24p versionen - just dessa 3ware kort finns i olika konfigurationer från 2-24 portar. Behöver du 10 diskar köper du ett 12 portars kort till ett mycket bättre pris än topmodellen med 24p.

Argumentet att du kan lägga till diskar lite hur som helst med ZFS håller inte helt - köp en SAS kontroller så kan du med hjälp av SAS Expanders utöka antalet fysiska devices till 100+ per kontroller. En 36 portars expander kan du plocka upp för ett par tusenlappar - prestandan lider såklart, men till en ren filserver spelar prestandan som sagt relativt liten roll.

Jag tvivlar på att det finns buggar i mitt 3ware bios som kommer korruptera mina data - AMCC är ett Amerikanskt företag och skulle sådant förekomma ville en class action lawsuit startats redan. Bortser man ifrån det så har jag noll RAM problem (FBDimm) och mitt PSU (Corsair HX1000w) är också helt ok. Visst kan problem uppstå, men man kan också bli anfallen på väg hem från krogen ... ska man då sluta gå på krogen och sätta sig att supa hemma istället? Visst finns det de som gör det, men då är man sått paranoid och bör söka hjälp

Som sagt, ZFS har sina användningsområden, men att ersätta HW RAID rakt av [tycker jag] är inte ett av dem.

Visa signatur

[Geek, Dad, Programmer, RC enthusiast, Technology evangelist]

Permalänk
Medlem

Fördelen är ju att du helt ska slippa allt med mjukvara att göra, allting sköts enkelt o fint i raidkortet, du slipper en massa uppdateringar och bråka med koder hit å dit.

Du kan tom ta ditt raidkort flytta den rätt av till en annan dator om det skulle behaga.

Och istället för att litet snålt raidkort måste du ha ett monster cpu sm lär gå på högvarv för att göra alla beräkningar.

Vad skulle hända med din mjukfemma när moderkortet pajjar?

Edit: annars kan du slå två flugor i en smäll, kör raidkort + ZFS

Visa signatur

R.I.P Robert 2004-01-29 (klasskompis) Läs: Artikel Nr 1. | Artikel Nr 2. | Artikel Nr 3.

Permalänk
Medlem

Ett hemmabygge har inte så stora behov av att ha så pass många diskar. Ni är nog uppe i företagsnivå(små) redan där med 24diskar.

Sedan lämnar jag vad som är bäst enligt TOPIC öppet då jag inte kan något inom det.

Permalänk
Avstängd

Jag kör med sexton diskar i hemmaservermiljö
Problemet med kontrollerkort som saddam länkar till är att de inte har något inbyggt minne eller någon egen processor för paritetsberäkning. Få moderkort har också pci-x platser idag och pci- portarna saknar ganska mycket prestanda så, njae jag håller mig till pci-e och mjuk raid i övrigt.

Permalänk
Citat:

Ursprungligen inskrivet av RoleX
Vad skulle hända med din mjukfemma när moderkortet pajjar?

Edit: annars kan du slå två flugor i en smäll, kör raidkort + ZFS

Vad händer med din HW femma eller sexa när kontrollerkortet dör? Med mindre du har ett likt kort tillgängligt är man lika långt. Sedan är det väl så att ZFS lagrar array info på diskarna, så man kan enkelt rekonstruera på en ny maskin?

Citat:

Ursprungligen inskrivet av Girgoo
Ett hemmabygge har inte så stora behov av att ha så pass många diskar. Ni är nog uppe i företagsnivå(små) redan där med 24diskar.

Sedan lämnar jag vad som är bäst enligt TOPIC öppet då jag inte kan något inom det.

Det är klart - för ett helnormalt hemmabygge kommer man inte i närheten 24 diskar; men saddam påstår att ZFS är bättre än HW RAID full stop, vilket jag inte håller med om.

Citat:

Ursprungligen inskrivet av Damodred
Problemet med kontrollerkort som saddam länkar till är att de inte har något inbyggt minne eller någon egen processor för paritetsberäkning. Få moderkort har också pci-x platser idag och pci- portarna saknar ganska mycket prestanda så, njae jag håller mig till pci-e och mjuk raid i övrigt.

Det var ju poänget - jag ville att han skulle visa upp kontrollerkort som kan ge 24 sata portar men det skulle vara minst hälften så billigt som mitt 3ware kort. Han lyckades, precis, men det kommer behövas tre kort och inte engång mitt server moderkort har tre PCI-x portar (2xPCI, 2xPCI-x, 2xPCI-e 2.0 samt en AIO port där det redan sitter en SAS kontroller).

Du har ju också påpekat någonting jag missade tidigare; eftersom kortet han linkade till är PCI-x har det en max bandwidth på 1GBps vilket ger ~128MBps per disk. Det är fortfarande bra nog för 8 portar och sata diskar, men börjar man se på kort med fler portar eller sas diskar har man redan där en flaskhals medans mitt 3ware kort klarar ~4GBps (altså 170MBps per disk).

Visa signatur

[Geek, Dad, Programmer, RC enthusiast, Technology evangelist]

Permalänk
Avstängd

Näe, det är ca 128MBps för alla diskar satta på pci-bussen, dvs än värre Tre diskar i raid0 (eller läsning i raid5) maxar den bussen.

Edit: insåg vad du skrev nu. Ja om man har tillgång till (eller tre i det här fallet) PCI-X. Men det är nog inte så vanligt, kopplar man dem till en vanlig pci- port så blir det som jag skrev ovan...

Permalänk

Njae.. PCI-x (64-bit 133MHz vilket kortet ifråga är) klarar väl ändå cirka 1GByte/s? Gammal hederlig 32 bitars 33MHz PCI ligger däremot endast på ~130MByte/s.

--edit--
Jamen hallå, du kan inte editera din text medans jag svarar
Du har rätt såklart - kör man in det i en normal PCI port förlorar man all "extra" prestanda som kortet kan ge. Jag utgick ifrån max performance rätt och slätt för att ge honom [saddam] iallafall delvis rätt

Visa signatur

[Geek, Dad, Programmer, RC enthusiast, Technology evangelist]

Permalänk
Avstängd
Permalänk
Medlem
Citat:

Ursprungligen inskrivet av emigrating12
Vad händer med din HW femma eller sexa när kontrollerkortet dör? Med mindre du har ett likt kort tillgängligt är man lika långt. Sedan är det väl så att ZFS lagrar array info på diskarna, så man kan enkelt rekonstruera på en ny maskin?

Sant, men istället för att hela systemet åker ner så har du istället bara diskarna som är nere.

Nu vet jag ju inte hur ZFS fungerar exakt men en Hård femma är det ju bara flytta ur kontrollerkortet till en ny maskin ifall någon annan hårdvara skulle braka ihop därav min förra fråga.

Visa signatur

R.I.P Robert 2004-01-29 (klasskompis) Läs: Artikel Nr 1. | Artikel Nr 2. | Artikel Nr 3.

Permalänk
Medlem

Något man läser ofta om här på forumet är folk med hårdvaruraid (inkl. bios raid) där tex. 2 diskar failat i en raid5a för att man inte kopplat in dom ordentligt när man meckat med datorn eller att man fått några trasiga sektorer på en disk. I en mjukvaru array är det barnsligt enkelt att peta fram event-nummret på den/dom diskarna som som hoppat ur arrayen och få den att starta igen. I värsta fall brukar en eller 2 filer blir korrupta vilket är ganska försumbart mot att förlora 3-4 TB data.

Nu har jag inte någon överväldigande erfarenhet av hårdvaruraid men det är inte ofta man ser liknande lösningar för att tvinga igång en krashad array.

Sen ska jag inte påstå att jag är något fan av Suns domedagspropaganda över alla andra filsystem utom deras eget. Min egen lösning bygger på 20 disk via sata multipliers på ett 4 portars SATA-kort på PCI-X buss och ett 10 år gammalt 300 watts nätagg dom driver rubbet. mdadm + XFS på mjukvarusidan och jag kan aldrig påstå att jag haft problem med datakorruption eller märkt av några "flippande bitar". Senast jag testade prestandan på detta fick jag 186 MB/s och då ska vi komma ihåg att detta trots att 20 disk delar på 4-sata portar.

Jag skulle vara intresserad av att veta hur Sun och ZFS hanterar mitt första påstående ang. hårdvaruraid, i.o.m att dom verkar så super måna om att all data ska vara intakt.

Lösningen kostade drygt 2000 kr så jag tror jag är billigast hittils?

Permalänk

BIOS (räknar med du menade mobo chipset) raid är inte att klassa som HW raid eftersom det inte har egen hardware för paritetsberäkning etc. och brukar klassificeras tillsammans med software raid.

Både mitt 3ware kort och LSI kort kan automatiskt "handle" arrayen om en/flera diskar har försvunnit och senare kommit tillbaka - f.ex. genom glappkontakt eller att du har dragit ur fel disk. Om du får faktiskt HW failure på en [eller flera] disk[ar] är det busenkelt att blinka led'n till den/dom diskarna och byta ut dem mot nya (endast en vid R5, två på R6 såklart).

Jag tror orsaken till att det inte nämnts mer på forumet är dels pga att folk inte har HW raid och att de som faktiskt har en HW RAID controller vet hur man hanterar både kortet, kablar och diskar - och därför råkar de inte ut för mycket problem. Tog personligen ned en 8 diskars R5'a häromdagen, den har då stått och gått 24/7 utan att jag engång har tänkt på den i ~18 månader (förutom några veckors nedetid i sommras pga blixtnedslag) - nu har jag inte pillat mycket på server'n, men lite ny hardware (diskar, RAM, en extra CPU samt ett nytt moderkort) har det blivit under de 18 månaderna. Enda orsaken till att den nu försvinner är att diskarna är "gamla" och små, men jag är säker på att den hadde fortsatt stå och jobba i ytterligare 18 mnd utan problem.

Det är klart - 2000,- är svårt att slå

Visa signatur

[Geek, Dad, Programmer, RC enthusiast, Technology evangelist]

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av emigrating12
Nu ska vi inte ändra utgångspunkten då ;P

Nu förstår jag inte? Det diskuterades i tråden om vilket NAS man ska köpa för några tusenlappar. Jag förstod inte varför när man kan slänga ihop en ZFS server för samma summa, och med mer prestanda. En vanlig billig NAS ger dig typ 10-20MB/sek. En billig ZFS server ger dig mycket mera prestanda, beroende på hur många diskar du kopplar in, flera hundra MB/sek är möjligt. Den diskussionen utgick från NAS för hemmabruk. Nu fortsätter vi diskutera hemmabruk?

Citat:

Ursprungligen inskrivet av emigrating12
Om man då tar dessa 3500,- så behöver vi en starkare CPU (i mitt fall två eftersom jag kör en dual xeon setup) och lite mer ram. Slutsumman räknar jag med blir ganska lik som att köpa ett HW kort till att börja med. Ska man även räkna in konfig tid etc vinner min setup ganska självklart - jodå ZFS är enkelt att sätta upp, men eftersom jag kör Windows 2008 server vore jag tvungen att köra Solaris i en VM, vilket i tur betyder att jag vore tvungen att dela ut diskarna "raw" ifrån "Windoze" till min Solaris VM.

Varför behöver man starkare CPU?

Ska man räkna in konfig tid etc, så vinner nog ZFS. Din setup har inte en chans där, tror jag. Koppla in SATA diskarna på vanligt sätt och skapa ett ZFS raid:
# zpool create myRaidTjolahopp disk0 disk1 disk2 disk3
Och det är klart efter nån halv sekund. Ingen formatering. Sätt igång och tanka på omedelbart. I Linux och LVM krävs det typ 20 krångliga kommandon med knepig syntax. Hur många steg krävs i Windows? Sätter du verkligen upp ett Windows raid snabbare än jag gör det i ZFS?

Och OpenSolaris (som är som Ubuntu, typ) har CIFS i kärnan. CIFS gör OpenSolaris till en tvättäkta windowsmaskin i nätverket. Det gör inte Samba.

Så man tycker att du borde kunna accessa diskarna från Solaris och skapa ett ZFS raid med ett kommando, och dela ut raidet med CIFS. Så får du dessutom alla unika ZFS funktioner.

Citat:

Ursprungligen inskrivet av emigrating12
Om min server inte användes till både storage och applikation server vore det inga problem; jag kunde kört inn Solaris som enda OS och Bob's my uncle. Men i dessa dagar med virtualiserings och spara energi "maraton" ska man givetvis köra så mycket som möjligt på en fysisk maskin.
Visst kan jag köra upp en egen maskin som storageserver, men då behöver jag dubbla moderkort, cpu, ram och sata kontrollers vilket säkerligen ville kostat det samma eller mer än 3500,- - lägg då till att HW RAID som en bonus ger bättre prestanda... vad väljer man?

Man väljer ZFS såklart!

Nej men seriöst. Börjar vi prata om virtualisering så ligger det mesta i lä. Solaris är ju ett Enterprise server OS (som bl.a. driftar hela nordiska aktiebörsen) och Solaris har virtualiserat mycket länge. Bl.a. har man t.ex. Zones, dvs virtuella maskiner i Solaris. Man kan t.ex. installera olika versioner av Apache i varje Zone och alla har olika IP adresser. Men styrkan i Zones fås tillsammans med ZFS. ZFS har något som heter snapshots. Det är ungefär som att ghosta en partition, Norton Ghost eller Acronis. Man gör en snapshot på en partition (dvs filsystem) på en sekund och den tar inget extra utrymme. Det som händer är att hårddisken börjar spara nån annanstans och alla gamla filer ligger kvar, helt orörda. Du kan alltså göra en snapshot innan du installerar ett program, och sen vid boot så får du en lista på alla snapshots och kan boota från vilken snapshot som helst. Funkar det inte, så bootar du bara från en tidigare punkt och raderar snapshoten. Det är alltså sann versionshantering på bitnivå.

Detta används med fördel till virtualisering. Du installerar Oracle i en zone, testar den och confar. Sen gör du snapshot. Och nu kan du skapa Zones (dvs kloner) enkelt. Alla Zones läser från Master men skriver på sin egna partition. (Partitioner växer och krymper i storlek. Att skapa en partition är som att skapa en katalog). Så sabbar nån en Oracle Zone, så raderar du den partitionen och skapar en ny klon på några sekunder. Varje Zone tar 40MB RAM och 100MB hårddisk. En snubbe startade 1000 zones på en 1GB RAM. Alla Zones delar på den megastabila Solariskärnan, så den kraschar inte. Mycket lättviktigt. Du kan även t.ex. installera Linux v2.4 i en Zone. En zone användare kan inte skilja på om de sitter i en zone, eller i den riktiga miljön. Du kan ge dem root acess utan problem, de kan inte bryta sig ut. Sabbar de nåt, klonar du upp en ny testad zone direkt.

Sen finns massa andra Solaris virtualiseringslösningar oxå. T.ex ldoms, Xen, VirtualBox, CrossBow,etc. Så är virtualisering viktigt, så är nog Solaris ett av de bästa valen som finns.

Citat:

Ursprungligen inskrivet av emigrating12
Jag tvivlar på att det finns buggar i mitt 3ware bios som kommer korruptera mina data - AMCC är ett Amerikanskt företag och skulle sådant förekomma ville en class action lawsuit startats redan. Bortser man ifrån det så har jag noll RAM problem (FBDimm) och mitt PSU (Corsair HX1000w) är också helt ok. Visst kan problem uppstå, men man kan också bli anfallen på väg hem från krogen ... ska man då sluta gå på krogen och sätta sig att supa hemma istället? Visst finns det de som gör det, men då är man sått paranoid och bör söka hjälp

Men det finns massor av andra felkällor än buggar i bios, strömspikar, dåligt ram, dåligt power supply. Då och då, så får man fel på hårddisken. 20% av ytan på en modern hårddisk är dedikerad till felkorrigeringskoder. Det finns ändå fel som en hårddisk inte kan reparera. Vad värre är, du får aldrig veta att det blev fel. Hårddisken vet inte ens om det. Detta händer, och det är inte bra att förlita sig på hårdvara. Hårdvara knasar ibland. I snitt ett fel per 10 TB läsning/skrivning går inte att reparera. Så visst, det är dumt att bli nojjig, men det är inte bra att tro att man är immun. Därför har Linux bl.a. "fsck" som kontrollerar diskarna. Problemet är att fsck bara kontrollerar metadatat, inte själva datat. Och du kan inte använda raidet under tiden. Att göra fsck på en stor terabyte raid tog en vecka. De borde alltså återställt från backup, produktionsbortfall i en vecka är inte kul. ZFS har "scrub" som kontrollerar allting, och du kan använda raidet under tiden.

En annan sak, det dära 8 portars SATA kortet jag länkar till, är PCI-X. Men PCI-X funkar ofta bra i vanliga PCI slot. Jag kör det i ett PCI slot. Ett PCI slot har max 150 MB/sek. PCI-X har max nån GB/sek. Hur ofta behöver man 500MB/sek? Jag är ensam här hemma. Ok om man ska serva många användare, då behöver man hög fart för annars laggar det. Men en ensam person? För en hemma server så räcker några hundra MB/sek mer än väl. Blir det så att jag behöver mera fart, så stoppar jag in lite diskar i mina vanliga SATA portar, som har 300MB/sek vardera. Eller skaffar ett server mobo, där det finns PCI-X. Då får jag nån GB/sek per 8 portars SATA kort. Men för hemma bygge och ensam person behövs inte såna prestanda?

Men som sagt, fördelen med ZFS är inte att jag kan få såna prestanda om jag verkligen vill. Fördelen är att mina data är säkra. Det tycker jag är mycket viktigare än att få 1 GB/sek på mitt hemma bygge. Hellre 200-300MB/sek säkra data, än 1GB/sek och osäkra data - tycker jag. Men smaken är som baken, dvs hårig. Sen har du förstås andra fördelar med ZFS, förutom datasäkerhet. T.ex.:

*snapshots - som jag pratade om ovan. En kille hade typ 10 000 snapshots på sin disk, han tog en varje 10 sek eller så. Alla snapshots tog upp 4GB totalt, bara data som ändras sparas. Säg att du redigerar en rådata video fil på 50 GB och ändrar några sekunder i mitten. Utan ZFS måste du spara filen på nytt för varje ändring om du vill kunna backa. Gör du 10 ändringar, så måste du lagra 10 x 50GB = 500GB. Men med ZFS så lagras bara ändringarna, dvs sann versionshantering som svn. Antag varje ändring är 25MB stor. Då måste du lagra 50GB + 10 x 25MB = 50,25GB. Vissa Windows lösningar har snapshots oxå. Då kräver de ibland extra hårddisk. Du kan bara göra 10 snapshots totalt. Eller är begränsade på andra sätt. ZFS snapshots används för time slider i OpenSolaris:
http://channelsun.sun.com/video/opensolaris+demo+time+slider+...

Man pajar en disk i en raid och byter ut disken mot en ny:
http://www.youtube.com/watch?v=hE7sLb2K51Q&feature=related

Man skapar ett raid med 12 USB minnesstickor, drar ut stickorna och stoppar in dem huller om buller:
http://blogs.sun.com/constantin/entry/csi_munich_how_to_save

*ZFS är 128 bit. Dvs, lagringskapaciteten som är 2^128 kommer räcka för all framtid. ZFS räcker för all framtid. (Bill Gates: 640KB räcker för all framtid). Hur vet SUN det? Jo, antalet atomer i universum är färre än 2^128. Så om du kunde lagra en bit på varje atom, så kan ZFS hantera den datamängden, plus mera.

*scrub - man kan kontrollera sina data efter fel och detta samtidgt medan man använder raidet.

+ plus att i kombination med andra verktyg som Zones, DTrace och Boot Environment, etc, så blir ZFS det kraftfullaste och säkraste, samt skalbaraste som finns just nu. SUN säljer numera storage servrar som är en vanlig dator, dvs CPU + ZFS + många sata diskar och skriver i praktiken mer än 2 GB/sek. Så jag anser man kan säga att ZFS kan ersätta hårdvaru raid. Det håller på att hända just nu.

I början sker allt i hårdvara, senare sker det i mjukvara. Det är alltid så.

Vad får man utav HW raid? Överföringshastighet. Men du får oxå snabbt med ZFS. Och HW raid är dyrt. ZFS är billigt. Och HW raid är osäkert. Antag att du driftar en aktiebörs och det flippas lite bitar varje 10 TB läsning/skrivning. Det har du inte råd med, kunderna kommer fly din aktiebörs och vända sig nån annanstans. ZFS lider inte av detta problem.

Så om vi bortser från snabbheten med HW raid, vad finns kvar för fördel då? HW raid drar inte CPU. Det är sant. Men dagens CPUer är kraftiga. Och med ett hemmabygge så blir det aldrig tunga överföringar som drar CPU. Det blir aldrig ett problem med CPU för hemmabyggen. Andra fördelar med HW raid?

Permalänk
Hedersmedlem

Får väl flika in lite - ZFS stöds väl inte på alla plattformar utan endast på Solaris-baserade system? Det är i så fall en stor nackdel enligt mig.

Visa signatur

SWECLOCKERS.COM :: If Quake was done today ::
WS: Gigabyte Z690 UD DDR5 :: Core i5 12600K :: 32 GB RAM :: Geforce RTX 3060 Ti :: 10 GbE NIC :: AOC C32G1 32" :: Seagate FireCuda 530 1TB :: Deepcool Matrexx 55
NAS: SM X10-SLM-F :: Mellanox Connect2X SFP+ :: Intel XL710-QDA1 QSFP+

Permalänk
Avstängd

ZFS finns till FreeBSD och Apple OS X. Det är fritt och öppet. Det finns även till Linux med fuse. OpenSolaris påminner en del om Ubuntu. Klarar du av Ubuntu så klarar du av OpenSolaris.

Permalänk
Avstängd

Vilket seriöst hårdvaruraidkort märker inte av om en skrivning misslyckas?

Om du inte upprepade allt du vill förmedla så skulle dina inlägg blir lite mer överskådliga.

Citat:

Ursprungligen inskrivet av saddam
Nu förstår jag inte? Det diskuterades i tråden om vilket NAS man ska köpa för några tusenlappar. Jag förstod inte....

Det har blivit uppenbart Han ville ha en NAS, inte bygga själv. Oavsett lösning.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av saddam
*ZFS är 128 bit. Dvs, lagringskapaciteten som är 2^128 kommer räcka för all framtid. ZFS räcker för all framtid. (Bill Gates: 640KB räcker för all framtid). Hur vet SUN det? Jo, antalet atomer i universum är färre än 2^128. Så om du kunde lagra en bit på varje atom, så kan ZFS hantera den datamängden, plus mera.

Hoppas verkligen att de som räknat på ZFS räknar bättre än du...

Hint: 2^128 är 3.4x10^38, enligt uppskattning (källa: wikipedia) innehåller en stjärna i genomsnitt 1×10^57 väteatomer och en galax innehåller i snitt 4x10^11 stjärnor och det finns uppskattningsvis 8x10^10 galaxer i universum.

Det är kul att du gillar ZFS och Solaris, det gör jag också. Men jag tror att det är fler än jag som blir lite trötta på ditt evangelistiska predikande. Verkligheten är inte alltid överensstämmande med Suns reklamutskick.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av saddam

Ska man räkna in konfig tid etc, så vinner nog ZFS. Din setup har inte en chans där, tror jag. Koppla in SATA diskarna på vanligt sätt och skapa ett ZFS raid:
# zpool create myRaidTjolahopp disk0 disk1 disk2 disk3
Och det är klart efter nån halv sekund. Ingen formatering. Sätt igång och tanka på omedelbart. I Linux och LVM krävs det typ 20 krångliga kommandon med knepig syntax. Hur många steg krävs i Windows? Sätter du verkligen upp ett Windows raid snabbare än jag gör det i ZFS?

# mdadm --create /dev/md0 -l 5 -n 4 sda sdb sdc sdd

Jag ser inte hur det kan bli 20 kommandon? För att gör samma sak du gjort där, skapat en simpel array krävs det inte mer än ett kommando i Linux heller. Ska du börja blanda in Zones också, vilket kräver att du lägger på LVM för att få motsvarande funktionalitet i Linux hamnar du på ungefär lika många kommandon där också. Och seriöst, syntaxen för LVM är inte krångligare än den för ZFS, det är en vanesak.

Citat:

Ursprungligen inskrivet av saddam

Sen finns massa andra Solaris virtualiseringslösningar oxå. T.ex ldoms, Xen, VirtualBox, CrossBow,etc. Så är virtualisering viktigt, så är nog Solaris ett av de bästa valen som finns.

Jag tycker ett filsystem som saknas klusterstöd (ZFS) är olämpligt för virtualisering.

Citat:

Ursprungligen inskrivet av saddam

Men det finns massor av andra felkällor än buggar i bios, strömspikar, dåligt ram, dåligt power supply. Då och då, så får man fel på hårddisken. 20% av ytan på en modern hårddisk är dedikerad till felkorrigeringskoder. Det finns ändå fel som en hårddisk inte kan reparera. Vad värre är, du får aldrig veta att det blev fel. Hårddisken vet inte ens om det. Detta händer, och det är inte bra att förlita sig på hårdvara. Hårdvara knasar ibland. I snitt ett fel per 10 TB läsning/skrivning går inte att reparera. Så visst, det är dumt att bli nojjig, men det är inte bra att tro att man är immun. Därför har Linux bl.a. "fsck" som kontrollerar diskarna. Problemet är att fsck bara kontrollerar metadatat, inte själva datat. Och du kan inte använda raidet under tiden. Att göra fsck på en stor terabyte raid tog en vecka. De borde alltså återställt från backup, produktionsbortfall i en vecka är inte kul. ZFS har "scrub" som kontrollerar allting, och du kan använda raidet under tiden.

En annan sak, det dära 8 portars SATA kortet jag länkar till, är PCI-X. Men PCI-X funkar ofta bra i vanliga PCI slot. Jag kör det i ett PCI slot. Ett PCI slot har max 150 MB/sek. PCI-X har max nån GB/sek. Hur ofta behöver man 500MB/sek? Jag är ensam här hemma. Ok om man ska serva många användare, då behöver man hög fart för annars laggar det. Men en ensam person? För en hemma server så räcker några hundra MB/sek mer än väl. Blir det så att jag behöver mera fart, så stoppar jag in lite diskar i mina vanliga SATA portar, som har 300MB/sek vardera. Eller skaffar ett server mobo, där det finns PCI-X. Då får jag nån GB/sek per 8 portars SATA kort. Men för hemma bygge och ensam person behövs inte såna prestanda?

Men som sagt, fördelen med ZFS är inte att jag kan få såna prestanda om jag verkligen vill. Fördelen är att mina data är säkra. Det tycker jag är mycket viktigare än att få 1 GB/sek på mitt hemma bygge. Hellre 200-300MB/sek säkra data, än 1GB/sek och osäkra data - tycker jag. Men smaken är som baken, dvs hårig. Sen har du förstås andra fördelar med ZFS, förutom datasäkerhet. T.ex.:

*snapshots - som jag pratade om ovan. En kille hade typ 10 000 snapshots på sin disk, han tog en varje 10 sek eller så. Alla snapshots tog upp 4GB totalt, bara data som ändras sparas. Säg att du redigerar en rådata video fil på 50 GB och ändrar några sekunder i mitten. Utan ZFS måste du spara filen på nytt för varje ändring om du vill kunna backa. Gör du 10 ändringar, så måste du lagra 10 x 50GB = 500GB. Men med ZFS så lagras bara ändringarna, dvs sann versionshantering som svn. Antag varje ändring är 25MB stor. Då måste du lagra 50GB + 10 x 25MB = 50,25GB. Vissa Windows lösningar har snapshots oxå. Då kräver de ibland extra hårddisk. Du kan bara göra 10 snapshots totalt. Eller är begränsade på andra sätt. ZFS snapshots används för time slider i OpenSolaris:
http://channelsun.sun.com/video/opensolaris+demo+time+slider+...

Pratade vi hemma system här eller? Och snapshots är ingen nyhet, har funnits i LVM hur länge som helst.

Citat:

Ursprungligen inskrivet av saddam

Man pajar en disk i en raid och byter ut disken mot en ny:
http://www.youtube.com/watch?v=hE7sLb2K51Q&feature=related

Man skapar ett raid med 12 USB minnesstickor, drar ut stickorna och stoppar in dem huller om buller:
http://blogs.sun.com/constantin/entry/csi_munich_how_to_save

Inga problem med mdadm heller.

Citat:

Ursprungligen inskrivet av saddam

Vad får man utav HW raid? Överföringshastighet. Men du får oxå snabbt med ZFS. Och HW raid är dyrt. ZFS är billigt. Och HW raid är osäkert. Antag att du driftar en aktiebörs och det flippas lite bitar varje 10 TB läsning/skrivning. Det har du inte råd med, kunderna kommer fly din aktiebörs och vända sig nån annanstans. ZFS lider inte av detta problem.

Så om vi bortser från snabbheten med HW raid, vad finns kvar för fördel då? HW raid drar inte CPU. Det är sant. Men dagens CPUer är kraftiga. Och med ett hemmabygge så blir det aldrig tunga överföringar som drar CPU. Det blir aldrig ett problem med CPU för hemmabyggen. Andra fördelar med HW raid?

Med hårdvaruraid och då tex. SAN-lösningar som också bygger till största delen på hårdvara, Enclosure + HBA om man har sina maskiner i 2 datorhallar och snabbt behöver kunna faila över mellan dessa? Finns mängder med hårdvarulösningar som klarar av datareplikering mellan 2 SAN-enheter.

ZFS klarade inte ens att 2 datorer skrev till samma pool, right?

Avslutningsvis tycker jag inte ZFS är ett värdelöst filsystem även om det kan låta så, men jag har personligen inte mycket till övers för Sun. Jag tycker dom hanterar Opensource på ungefär samma vis som Microsoft, släpper allt användbart under licenser som tillåter alla att se men gör det omöjligt att använda koden i andra sammanhang.

Men Sun ger väll sig tids nog också när btrfs börjar ta form gör dom väll samma kovändning som med java när det började få lite konkurrens och släpper det under en vettig licens och då kanske det kan börja bli ett intressant alternativ.

Permalänk
Avstängd

Som en rutinerad användare av mjuk raid5 så kan jag säga att det inte är processorn som flaskhalsar, utan det är avsaknaden av dedikerat minne. Samtidigt så nyttjar jag ungefär halva min nätverkskapacitet när jag skyfflar filer till min raid5a, ca 520mbit/sec. Läsning är förstås brutalt mycket snabbare. Som saddam säger så är det fullt godkänd prestanda i hemmamiljö.

Jag vet tyvärr inte riktigt vad som diskuteras, raid0/raid1 eller raid5/raid6 eller raid10/raid50 eller än mer avancerat. Oavsett så ska man aldrig lita till enbart hård eller mjuk raid - backup skall ändå alltid nyttjas om man vill tas seriöst.

Permalänk

@Damodred; Det som "diskuteras" är väl saddam's ovilja att inse att ZFS inte nödvändigtvis är bättre än HW (eller annan SW) RAID.

Men men.. Jag har iallafall nu insett varför man inte skall börja diskutera med teoretiker

@saddam; När jag sa att min setup vinner tidsmässigt var det understött av att personen ifråga inte redan hadde en Solaris installation och/eller ZFS experience. Besitter man redan kunnskapen som behövs för att benytta ZFS går det såklart snabbt nog, men för en newbie är det nog bra mycket enklare (läs snabbare) att göra en RAID array via webinterfacet eller biosen på ett HW kort än det är att sitta och rota i manualer till "kryptiska" *IX operativsystem.

Iallafall; Min kommentar angående "ändring av utgångspunkten" var mer till för att påpeka att jag bad dig finna SATA kontroller kort utan RAID som ville ge mig 24 SATA portar - ditt argument emot detta var "Hur ofta behöver man 24 diskar i en filserver?". Som jag redan påpekat använder jag en av mina server's som utgångspunkt för varför ZFS inte är rätt för mig - på denna server'n finns det 8 on-board SATA portar som redan är i bruk till JBOD chassi, i tillägg finns det 8 SAS portar som är i bruk till Systemdiskar (RAID1) och slutligen ett 3ware 24 portars kort som styr "lagrings" diskarna. Med andra ord behöver jag alla dessa portarna som du anser vara onödiga för en "filserver".

Man behöver en starkare CPU på grund av overheaden som ZFS har - tyckte jag redan förklarade det här, men ta min server som exempel igen; den har ett antal virtuella maskiner som kör olika tjänster bl.a. SQL Server, en utvecklings maskin och så vidare. Den har också en VM som agerar endast som filserver - jag har inte "råd" att min utvecklingsmiljö blir "seg" bara för att någon annan på nätverket får för sig att uppdatera 4TB med data på den virtuella filserver'n, något som definitivt kan hända om RAIDen "styrs" av mina vanliga CPUer iställetför dedikerade RAID processorer.

Also, när jag sa att jag kör Windows 2008 var det inte pga dårlig samba implementering i Linux; jag kör w2k8 av helt andra orsaker - bl.a. pga Hyper-V. Visst kan jag köra ESXi istället och inte ha ett "riktigt" host OS överhuvudtaget, men det passar inte helt till min användning. Mina enda alternativ är då att antingen köra Solaris (eller ett annat ZFS supported OS i en VM) och dela ut diskarna direkt från windows eller att bygga en dedikerad filserver som endast kör ovanstående OS. Inget av alternativen passar jättebra för mig; kör jag en dedikerad maskin till storage kommer det dra mycket mer energi f.ex. Jag vore också tvungen att inskaffa 10GbE nätkort eftersom all trafik som numera går "internt" över VM bussar vore tvunget att gå externt genom mina cat6 kablar. 1GbE är helt ok, men jag maxar enkelt en gigabits nätverksanslutning med mitt HW RAID.

Mitt enda poäng är egentligen att ZFS inte är "the ultimate saviour" eller det bästa since sliced bread. Det har sina användningsområden, precis som f.ex. Linux - men att dra allt över en kam och säga "ZFS to the rescue" fungerar helt enkelt inte.

Visa signatur

[Geek, Dad, Programmer, RC enthusiast, Technology evangelist]

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av NakedApe
Hoppas verkligen att de som räknat på ZFS räknar bättre än du...

Hint: 2^128 är 3.4x10^38, enligt uppskattning (källa: wikipedia) innehåller en stjärna i genomsnitt 1×10^57 väteatomer och en galax innehåller i snitt 4x10^11 stjärnor och det finns uppskattningsvis 8x10^10 galaxer i universum.

Det är kul att du gillar ZFS och Solaris, det gör jag också. Men jag tror att det är fler än jag som blir lite trötta på ditt evangelistiska predikande. Verkligheten är inte alltid överensstämmande med Suns reklamutskick.

Ja, att 2^128 är fler än antalet atomer i universum är mitt egna påhitt, inte SUNs. Saken är att jag hört att det finns 10^81 atomer i universum. Och då tänkte jag att 2^128 blocks = 2^140 bits är väl ungefär 10^81. Men det stämde inte. Det visar sig att 2^140 bitar är 10^42. Så jag hade liiiite fel där på min höftning. Jag vet att 128 bitar räcker till, så jag bara höftade fram ett resonemang som inte stämde.

SUN själva har ett krångligt resonemang varför 128 bits filsystem räcker i evig tid, som jag inte orkade sätta mig in i. Det använder massa fysik istället och går något i stil med att för att kunna lagra 2^140 bitar så krävs det en gigantisk massa. Och den massan måste minst väga så här mycket. Och för att operera på en sån stor massa krävs massor av energi, och den energin räcker för att koka bort alla hav på jorden.
http://blogs.sun.com/bonwick/date/20040925#128_bit_storage_ar...
Detta är i bästa fall, utan energiförluster. Om det är så att vi t.ex. inte kan tillverka datorer av ren energi (vilket resonemanget förutsätter), så blir siffrorna mycket värre. I vilket fall som helst. När SUN säger att 128 bitars filsystem räcker för all evig tid, så kan vi vara rätt säkra på den uppgiften.

Min höftning stämde inte i detalj när man granskade den, men jag försökte illustrera (på ett dåligt sätt) varför 128 bitar räcker. En annan illustration då; om du tar en terabyte drive, så behöver du nästan lika många såna som 300 st månar väger tillsammans för att komma upp i ZFS kapacitet.
http://blogs.sun.com/dcb/entry/zfs_boils_the_ocean_consumes
Det är alltså det jag menar när jag säger att det krävs jävla massa atomer för att lagra 2^140 bits. I praktiken lär vi aldrig någonsin lyckas uppbåda varken så mycket massa eller energi. Är vi överens om det, även om mina siffror inte var kontrollerade?

Dundermuppen,
Men det slutade med att han byggde själv? Om man talar om en budget hemma lösning så förstod jag inte valet mellan en NAS eller en ZFS server. Personligen tycker jag att en ZFS servers fördelar uppväger NAS fördelar.

nfm,
Jag har läst på flera ställen att i Linux och "LVM" krävs det typ 20 kommandon med krånglig syntax att sätta upp ett raid. Jag vet inte hur det är i "mdadm", det är möjligt att det är enklare än LVM.

ZFS har klusterstöd.

Jag har även hört att snapshots i LVM är bökigt, jag har inte provat själv dock. T.ex. Windowslösningar har snapshots, men då krävs extra drive eller så. Du kan bara göra totalt typ 10 snapshots. Inte riktigt vad jag räknar som en bra snapshot lösning?

Jag håller inte med dig att SUN gör som Microsoft, dvs släpper sin kod under konstiga licenser som gör att man bara får titta på koden, men inte använda koden i praktiken. ZFS finns till Apple och FreeBSD. DTrace finns till QNX, Apple och FreeBSD snart. Det är även mera SUN saker som håller på att portas och används redan av andra företag och open source OS.

SUNs CDDL licens är konstigt eftersom det tillåter CDDL licens på enstaka filer. Detta gör att andra företag t.ex Apple kan använda SUN teknologi helt fritt, de bara lyfter in ZFS till sitt OS X. De kan blanda sin proprietära licens utan problem med öppna CDDL.

GNU GPL å andra sidan, kräver att precis allting måste vara GNU. Det är ej tillåtet att blanda licenser. Inga kompromisser. Det måste vara GPL, annars duger det inte. Därför kan inte Linux använda t.ex. ZFS eller DTrace.

När SUN skulle öppna upp Java tog det år, pga SUN var tvungna att städa i koden och bevisa att de skrivit och ägde varenda kodrad. Det var ingen kovändning, utan ett stort arbete under flera år. SUNs gjorde först ett tidigare försök redan 1997 att helt enkelt standardisera Java men det gick inte, eftersom MS satte stopp med hänvisning till att det är inte bra om ett enda företag har makt över en std (Men MS har makt över OOXML, erhm):
http://www.openmalaysiablog.com/2007/09/microsoft-conde.html
Standardiseringsförslaget föregicks antagligen av diskussioner internt lång tid innan. Så SUN försökte tidigt öppna Java, det var inte alls någon kovändning.

Så jag förstår inte riktigt din jämförelse mellan SUN och MS? SUN har sagt explicit att de ska öppna all sin högteknologi; Solaris, Java, OpenOffice, ZFS, DTrace, Crossbow, Niagara CPU, etc. När SUN köpte MySQL tänkte MySQL stänga delar av sin kod, men SUN övertalade MySQL att hålla koden öppen.

Faktum är att SUN är det företag som bidragit mest till open source av alla företag enligt en studie (nu hittar jag inte länken där jag läste om studien, kanske någon annan har den länken?). Jag skulle gärna se att alla företag öppnade upp sina bästa produkter; Windows, Office, SAP, Oracle, AIX, etc. Jag vet inget annat företag som öppnat än SUN. Och SUNs teknik används redan av andra licenser som tillåter mixning av licenser. Att GPL inte kan samsas med andra licenser orsakar lite problem.

Den gamla SUN VDn var anti open source, men nya VDn är totalt tvärtom. Han bjöd Linus på middag för att diskutera samarbete, men Linus avböjde. Nyligen fick SUN arkitekten bakom ZFS träffa Linus, så nu får vi se om det leder någon vart, eller om Linus avböjt igen. Som sagt, SUN gör mer för open source än något annat företag. Jag förstår inte riktigt ditt resonemang att SUN egentligen inte tror på open source?

Damodred,
Det spelar ingen roll vilken raid vi pratar om; raid0,raid1,raid5, ZFS raid eller HW raid. Det viktiga är att du får tillräckliga prestanda och att dina data är säkra. Helst ska det vara gratis eftersom gratis är gott. Backup är bra, precis som du säger. Men jag har ingen lösning för det än. Jag hoppas jag aldrig råkar ut för en jordbävning eller eldsvåda.

Hmmm... Jag förstår inte riktigt hur vi kom in på Solaris och SUN och open source? Jag tänkte ju fortsätta på diskussionen om en HW raid server gentemot ZFS server, från den gamla tråden. Så vad säger Emigrating12?

EDIT: Ok, jag ser nu Emigrating12s inlägg, så diskussionen fortsätter, jag ska skriva ett svar imorgon på det. För trött nu.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av saddam

ZFS har klusterstöd.

http://www.sun.com/emrkt/campaign_docs/expertexchange/knowled...

Så det är väll inte helt sant?

Rent generellt är min uppfattning att SUN vill ha strikt kontroll över precis allt vilket rimmar lite illa i opensource communityn.

Bara en sån sak som att Sun kräver att äganderätten till alla ändringar som lämnas in av communityn till Suns open-source projekt tillskrivs Sun har gjort att otaliga av deras produkter blivit forkade eller att det tagit år och dagar att få ut viktig funktionalitet eftersom många utvecklare inte går med på det kravet.

Ang. MySQL. Utan att ha satt i mig någon djupare information utan bara "läst min slashdot" var det Suns påhitt att först stänga koden och sedan efter en fullständig storm from communityn och hot om fork ändrat sin uppfattning.

http://developers.slashdot.org/article.pl?sid=08/04/16/233722...

Jaja nu ska jag inte paja din tråd med mer offtopic.

Permalänk
Hedersmedlem

Föresten, finns det några prestandasiffror på ZFS? Är det någon skillnad mellan ZFS, EXT3 och NTFS på en Hemma-NAS? Ni som testat - har ni testat prestandan över nätverk och lokalt i jämförande syfte?

Visa signatur

SWECLOCKERS.COM :: If Quake was done today ::
WS: Gigabyte Z690 UD DDR5 :: Core i5 12600K :: 32 GB RAM :: Geforce RTX 3060 Ti :: 10 GbE NIC :: AOC C32G1 32" :: Seagate FireCuda 530 1TB :: Deepcool Matrexx 55
NAS: SM X10-SLM-F :: Mellanox Connect2X SFP+ :: Intel XL710-QDA1 QSFP+

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av dundermuppen
Vilket seriöst hårdvaruraidkort märker inte av om en skrivning misslyckas?

De märker att skrivningen misslyckades. Men, antag att du ska skriva ned data från RAM på disk, och på vägen till disken flippas några bitar i dataströmmen. T.ex. solen får solstormsutbrott, eller strömspik eller whatever. Ett HW raid vet inte om några bitar blev förvanskade, det du får veta, är att din fil är nedskriven. Thats it. Men ZFS vet om bitar förvanskas, för varje skrivning så läser ZFS omedelbart tillbaka det nedskrivna och jämför. Och om ZFS ska uppdatera en fil på disk, så skrivs allting ned först på ett nytt ställe (ZFS skriver inte över det gamla) och först när allting är korrekt nedskrivet så flyttas pekaren till den nya informationen. Den gamla informationen är kvar ett tag. Som journal förande filsystem. Data consistency/integrity är alltid garanterad och du kommer aldrig hamna ur sync med dina data. Detta kräver dock att ZFS bränner massa CPU pga alla dubbelkoller precis hela tiden. Men det är värt? Tidigare brukade jag kopiera viktiga filer till flera olika datorer innan jag kände mig säker. Numera känner jag mig osäker ända tills jag fått över det till min ZFS raid. Först då kan jag andas ut. Antag att jag spenderat 100 tals timmar på att få mina data, då tycker jag det är viktigare med datasäkerhet än extrema överföringshastigheter. Vissa data kan vara värda miljoner, då blir det än viktigare.

Citat:

Ursprungligen inskrivet av nfm
http://www.sun.com/emrkt/campaign_d..._compat.html#17

Så det är väll inte helt sant [att ZFS har cluster stöd]?

Det verkar vara en gammal icke uppdaterad länk du funnit?

Här är en länk från 2006, och då fanns cluster stöd i beta version för ZFS
http://milek.blogspot.com/2006/09/zfs-in-high-availability-en...

Annan länk, SUNs nya storageservrar som är en vanlig PC + ZFS, clustrar framgångsrikt:
http://blogs.sun.com/greg/entry/welcome_to_fishworks

Citat:

Ursprungligen inskrivet av nfm
Rent generellt är min uppfattning att SUN vill ha strikt kontroll över precis allt vilket rimmar lite illa i opensource communityn.

Korrekt. Men det kanske är förståeligt, efter alla miljard investeringar SUN gjort? Det tar även tid för ett företag att ändra inställning helt, flera år. Plus att SUN ska sälja sånt här till stora Enterprise företag, aktiebörser o dyl. Då måste SUN granska all kod och inte ta in vad som helst. SUN kan bli fett stämda om det strular. Du vet amerikanska advokater som stämmer allting? Men det som är bra med SUN, är att allting är Open Source. Så om du tröttnar kan du forka och fortsätta jobba. Det gör inget om nån forkar. Det är helt ok. Du har ett val. Med stängda företag kan du inte göra nånting.

Citat:

Ursprungligen inskrivet av nfm
Bara en sån sak som att Sun kräver att äganderätten till alla ändringar som lämnas in av communityn till Suns open-source projekt tillskrivs Sun har gjort att otaliga av deras produkter blivit forkade eller att det tagit år och dagar att få ut viktig funktionalitet eftersom många utvecklare inte går med på det kravet.

Korrekt. Jag tyckte först detta var jättedåligt av SUN, ända tills det kom in en påläst snubbe i forumet och radade upp flera konkreta exempel med andra företag och berättade att alla gör så, t.ex Novell. Detta förfarande att få ägande rätten är alltså vanligt och närmast praxis. Men jag håller med, det är dåligt att SUN gör så. Jag tycker att nu när SUN går först bland Open Source företagen så borde även SUN vara först i denna fråga. Men samtidigt, är communityn inte helt nöjd så kan man forka. Man kan göra nåt åt saken.

Citat:

Ursprungligen inskrivet av nfm
Ang. MySQL. Utan att ha satt i mig någon djupare information utan bara "läst min slashdot" var det Suns påhitt att först stänga koden och sedan efter en fullständig storm from communityn och hot om fork ändrat sin uppfattning.

http://developers.slashdot.org/arti...8/04/16/2337224

Om man snabbtittar lite i din feta länk, så är en av kommentarerna från MySQLs VD Mårten Mickos (i mitten ungefär):
"The business decision on this [closing of the code] was made by MySQL AB (by me as the then CEO) prior to the acquisition by Sun, so this has nothing to do with Sun. On the contrary, Sun is more likely to influence this decision the other way."
Som vi alla vet nu i efterhand, så är nu MySQL fortfarande helt öppet, tack vare SUN.

Så jag förstår inte din jämförelse mellan SUN och MS? MS har skumma licenser, du får titta på MS kod, om du inte jobbar med liknande produktutveckling - för då får du inte titta på koden. Andra företag får heller inte använda MS kod i sina egna produkter att sälja vidare. Men allt detta går bra med SUN. Eftersom MS får in alla sina pengar via stängd kod och inlåsning så tror somliga att MS inte menar allvar med sin satsning på Open Source. MS är ju kända för Embrace Extend & Destroy, dvs ta en std och ändra på den, och tvinga alla andra att använda Windows varianten genom att Windows bara supportar MS variant. Nyligen blev MS dömda i EU att offentliggöra hemliga protokoll som man bara kunnat reverse engineera tidigare. T.ex. NTFS måste man fortfarande reverse engineera, specarna är inte offentliga än. MS anhängare anser det vara självmord om MS öppnar upp sina viktigaste produkter såsom Windows, Office, etc. MS har inte öppnat några viktiga produkter, och kommer antagligen inte göra det. SUN har öppnat allt, eller är på väg med den lilla rest som återstår. Om SUN redan öppnat alla sina kronjuveler; Solaris, ZFS, DTrace, Java, etc, varför hemlighålla småkrafset som är kvar? Det logiska är att SUN öppnar precis allting.

Du kan ta SUNs teknologi och sälja den vidare, flera företag gör det redan. Problemet med SUN är att de förlorar mycket pengar på detta. Om SUN konkursar så kommer alla företag dra lärdom "se på SUN, de öppnade allting pga deras nya galna VD och konkursade. Så ska vi INTE göra. Alla våra viktiga produkter ska förbli stängd kod". Å andra sidan, om det går bra för SUN så kommer företagen säga "se på SUN, de öppnade all kod och det går strålande. Så måste vi oxå göra, vi måste öppna våra viktigaste produkter". Frågan är, vill du helst det ska gå bra för stängd kod företag, eller ska öppen kod företag gå bra (som kanske konkursar med denna helt nya oprövade djärva strategi)? Eller vill du båda ska gå bra?

Citat:

Ursprungligen inskrivet av emigrating12
amodred; Det som "diskuteras" är väl saddam's ovilja att inse att ZFS inte nödvändigtvis är bättre än HW (eller annan SW) RAID.

Men men.. Jag har iallafall nu insett varför man inte skall börja diskutera med teoretiker

Nej men seriöst tycker jag denna debatt är intressant. Jag lär mig massor om current state om HW raid av en expert, och du får veta lite om ZFS (som du kanske redan visste iofs). Du verkar kunna ganska mycket om lagring.

Citat:

Ursprungligen inskrivet av emigrating12
@saddam; När jag sa att min setup vinner tidsmässigt var det understött av att personen ifråga inte redan hadde en Solaris installation och/eller ZFS experience. Besitter man redan kunnskapen som behövs för att benytta ZFS går det såklart snabbt nog, men för en newbie är det nog bra mycket enklare (läs snabbare) att göra en RAID array via webinterfacet eller biosen på ett HW kort än det är att sitta och rota i manualer till "kryptiska" *IX operativsystem.

Så det är ok att man har Windows kunskaper i din jämförelse, men man får inte ha Solaris kunskaper? Det finns faktiskt folk som aldrig provat Windows. En gammal Unix räv berättade att han var tvungen att använda Windows ett tag och han höll på att bli helt galen. Allting var främmande för honom. Sen vet jag inte om en newbie tycker det är enklare att göra Windows raid via bios eller så, än att skriva ett ZFS kommando. Det finns även web GUI till ZFS. Du kan göra snapshots och sätta upp raid där. Busenkelt. Folk säger Windows är enkelt, och Bios är enkelt. Men jag vet inte om jag håller med. Moster Agda pilla i bios? Ofta visar det sig för att hålla Windows installationen fräsch, måste du kunna en hel del: brandvägg, virusskydd, rensa register, etc. Det kräver faktiskt ganska mycket kunskap. Annars ruttnar Windows installationen efter ett halvår och man måste installera om.

Citat:

Ursprungligen inskrivet av emigrating12
Iallafall; Min kommentar angående "ändring av utgångspunkten" var mer till för att påpeka att jag bad dig finna SATA kontroller kort utan RAID som ville ge mig 24 SATA portar - ditt argument emot detta var "Hur ofta behöver man 24 diskar i en filserver?". Som jag redan påpekat använder jag en av mina server's som utgångspunkt för varför ZFS inte är rätt för mig - på denna server'n finns det 8 on-board SATA portar som redan är i bruk till JBOD chassi, i tillägg finns det 8 SAS portar som är i bruk till Systemdiskar (RAID1) och slutligen ett 3ware 24 portars kort som styr "lagrings" diskarna. Med andra ord behöver jag alla dessa portarna som du anser vara onödiga för en "filserver".

Man behöver en starkare CPU på grund av overheaden som ZFS har - tyckte jag redan förklarade det här, men ta min server som exempel igen; den har ett antal virtuella maskiner som kör olika tjänster bl.a. SQL Server, en utvecklings maskin och så vidare. Den har också en VM som agerar endast som filserver - jag har inte "råd" att min utvecklingsmiljö blir "seg" bara för att någon annan på nätverket får för sig att uppdatera 4TB med data på den virtuella filserver'n, något som definitivt kan hända om RAIDen "styrs" av mina vanliga CPUer iställetför dedikerade RAID processorer.

Also, när jag sa att jag kör Windows 2008 var det inte pga dårlig samba implementering i Linux; jag kör w2k8 av helt andra orsaker - bl.a. pga Hyper-V. Visst kan jag köra ESXi istället och inte ha ett "riktigt" host OS överhuvudtaget, men det passar inte helt till min användning. Mina enda alternativ är då att antingen köra Solaris (eller ett annat ZFS supported OS i en VM) och dela ut diskarna direkt från windows eller att bygga en dedikerad filserver som endast kör ovanstående OS. Inget av alternativen passar jättebra för mig; kör jag en dedikerad maskin till storage kommer det dra mycket mer energi f.ex. Jag vore också tvungen att inskaffa 10GbE nätkort eftersom all trafik som numera går "internt" över VM bussar vore tvunget att gå externt genom mina cat6 kablar. 1GbE är helt ok, men jag maxar enkelt en gigabits nätverksanslutning med mitt HW RAID.

Mitt enda poäng är egentligen att ZFS inte är "the ultimate saviour" eller det bästa since sliced bread. Det har sina användningsområden, precis som f.ex. Linux - men att dra allt över en kam och säga "ZFS to the rescue" fungerar helt enkelt inte.

Det är lite lustigt hur vi definierar hemmabyggen. Dina hemmabyggen har 24 diskar, och dessutom 8 extra SAS diskar! Vet du hur mycket SAS diskar kostar??? Jo iofs det vet du nog, eftersom du äger dem. Du pratar i förbifarten om en "användare som ska uppdatera 4 TB på raidet" - shit vad har du för användare hemma hos dig??? Och du pratar om att virtualisera massa OS och att du maxar en gigabits nätverksanslutning (100MB/sek är inte svårt att uppnå iofs) etc. Kort sagt, jag är lite nyfiken på hur din familj ser ut som använder ditt hemmabygge på de sätten du beskrivit. Shit, om min morsa skulle få för sig att uppdatera 4TB på min raid skulle jag undra seriöst vad hon sysslar med.

När jag pratar om att ZFS är det ultimata och "ZFS to the rescue" så pratar jag om ett hemmabygge där man inte har råd med ett HW raid kort för 6500kr. Där hela hemmabygget kostar 6500 kr inkl alla diskar. Ditt s.k. "hemmabygge" kostade... 50.000kr? Är det för lite? Kan inte du bli min brorsa och bygga en liten "hemmaserver"? Jag undrar vad du tycker är en seriös server. Vissa är inte gjorda av pengar.

Jag håller fortfarande fast vid min åsikt, istället för en hemma NAS så ZFS bättre och billigare. Och det passar bättre än ett dyrt HW raid i hemmet. Vilken hemanvändare kör 24 diskar i ett hemma bygge + massa SAS diskar? ZFS to the rescue - i hemmen!

Om vi ska börja prata företag, så är det en helt annan diskussion. Jag tycker din server är mera något man hittar på företagen och inte i ett hem? Och om man får använda bättre hårdvara och större budget, så tror jag fortfarande ZFS har fördelar över HW raid. Att ZFS skriver mer än 2GB/sek med vanliga SATA diskar, är hyfsade prestanda.

EDIT:
Kr^PacMan
Som jag sagt, en enkel CPU + 4 diskar i ZFS ger dig 120MB/sek. Stoppar du i 7 diskar får du mycket mera speed. etc. Jag har skrivit om typiska överföringshastigheter med ZFS i tidigare inlägg.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av saddam
De märker att skrivningen misslyckades. Men, antag att du ska skriva ned data från RAM på disk, och på vägen till disken flippas några bitar i dataströmmen. T.ex. solen får solstormsutbrott, eller strömspik eller whatever. Ett HW raid vet inte om några bitar blev förvanskade, det du får veta, är att din fil är nedskriven. Thats it. Men ZFS vet om bitar förvanskas, för varje skrivning så läser ZFS omedelbart tillbaka det nedskrivna och jämför. Och om ZFS ska uppdatera en fil på disk, så skrivs allting ned först på ett nytt ställe (ZFS skriver inte över det gamla) och först när allting är korrekt nedskrivet så flyttas pekaren till den nya informationen. Den gamla informationen är kvar ett tag. Som journal förande filsystem. Data consistency/integrity är alltid garanterad och du kommer aldrig hamna ur sync med dina data. Detta kräver dock att ZFS bränner massa CPU pga alla dubbelkoller precis hela tiden. Men det är värt? Tidigare brukade jag kopiera viktiga filer till flera olika datorer innan jag kände mig säker. Numera känner jag mig osäker ända tills jag fått över det till min ZFS raid. Först då kan jag andas ut. Antag att jag spenderat 100 tals timmar på att få mina data, då tycker jag det är viktigare med datasäkerhet än extrema

Jag misstänker att du inte riktigt känner till hur hårdvaruraid fungerar. Hur tror du att ett kort vet om en disk är trasig annat än i de lägen den helt enkelt inte varvar upp ens? Det kontrolleras med checksummor och där blir det direkt uppenbart om det är datakorruption. Riktiga kontrollers gör också fortlöpande kontroller av hela diskytan de tidpunkter som det inte maxbelastas.
Jag ser att du påstår att hårdvarukontrollers skriver ut datat utan att sen kontrollera att det blev skrivet? Har du någon fakta bakom det påståendet och helst då en lista på vilka kontrollers som bara skriver i blindo?

En annan fråga. Kan du exemplifiera vilka typer av hårdvarukontrollers du pratar om här? LSI? Adaptec? Promise? Highpoint? SiliconImagebaserade? Intel ICHxR? Andra?
Bara så att vi pratar om samma sak.

Jag hoppas att du inte lever i villfarelsen att din zfs kan ersätta backup

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av saddam
EDIT:
Kr^PacMan
Som jag sagt, en enkel CPU + 4 diskar i ZFS ger dig 120MB/sek. Stoppar du i 7 diskar får du mycket mera speed. etc. Jag har skrivit om typiska överföringshastigheter med ZFS i tidigare inlägg. [/B]

Intressant, nu blev jag sugen på att labba lite. Prestanda är det som entusiaster främst sätter värde på när man håller på med RAID. Kan man få säkerhet på köpet är det självklart trevligt. Men vilken teknik ger bäst prestanda/säkerhets-värde? Hrm, kanske man ska försöka skaffa fram lite hårdvara och testa?

Visa signatur

SWECLOCKERS.COM :: If Quake was done today ::
WS: Gigabyte Z690 UD DDR5 :: Core i5 12600K :: 32 GB RAM :: Geforce RTX 3060 Ti :: 10 GbE NIC :: AOC C32G1 32" :: Seagate FireCuda 530 1TB :: Deepcool Matrexx 55
NAS: SM X10-SLM-F :: Mellanox Connect2X SFP+ :: Intel XL710-QDA1 QSFP+

Permalänk
Citat:

Ursprungligen inskrivet av saddam
Så det är ok att man har Windows kunskaper i din jämförelse, men man får inte ha Solaris kunskaper? Det finns faktiskt folk som aldrig provat Windows.

Njaej, nu vrider du mina ord igen Det jag menar är att en normalt begåvad Svensson användare redan besitter Windows kunnskap - detta är ju såklart pga att 99% av datorer som säljs idag kommer med Windows. Poänget är att om en "newbie" ska sätta upp en hemmaserver ser han troligen en annons för HPs HomeServer och köper den som kommer med Windows Home Server - alternativt hänger han (eller hon) på SweClockers och bygger ihop någonting själv, men jag vill tro att även de flesta som "hänger" här har väldigt liten kunnskap om *IX (se bara på endel av frågorna som kommer upp time and time again).

Citat:

Ursprungligen inskrivet av saddam
Det är lite lustigt hur vi definierar hemmabyggen. Dina hemmabyggen har 24 diskar, och dessutom 8 extra SAS diskar! Vet du hur mycket SAS diskar kostar??? Jo iofs det vet du nog, eftersom du äger dem. Du pratar i förbifarten om en "användare som ska uppdatera 4 TB på raidet" - shit vad har du för användare hemma hos dig??? Och du pratar om att virtualisera massa OS och att du maxar en gigabits nätverksanslutning (100MB/sek är inte svårt att uppnå iofs) etc. Kort sagt, jag är lite nyfiken på hur din familj ser ut som använder ditt hemmabygge på de sätten du beskrivit. Shit, om min morsa skulle få för sig att uppdatera 4TB på min raid skulle jag undra seriöst vad hon sysslar med.

När jag pratar om att ZFS är det ultimata och "ZFS to the rescue" så pratar jag om ett hemmabygge där man inte har råd med ett HW raid kort för 6500kr. Där hela hemmabygget kostar 6500 kr inkl alla diskar. Ditt s.k. "hemmabygge" kostade... 50.000kr? Är det för lite? Kan inte du bli min brorsa och bygga en liten "hemmaserver"? Jag undrar vad du tycker är en seriös server. Vissa är inte gjorda av pengar.

Hehe. Som jag sa tidigare, mitt hemmabygge är inte din normala homeserver, dock finns det (som påpekat i andra trådar här) ett flertal människor som av en anledning eller annan har "likadana" server's gående hemma.

Förresten har jag inte 8 SAS diskar på server'n ifråga - huvudkortet stödjer 8, men jag använder endast 2 som går i RAID1 (HW). 20 av de 24 SATA portarna på 3ware kontroller'n är i bruk och de 8 på moderkortet går som sagt till ett externt chassi.

Självklart har jag hållit endel information "under wraps" här. F.ex. det faktum att denna server används som ett arbetsverktyg - don't get me wrong, det är fortfarande en "hemma server", men eftersom jag kör utvecklingssystem och dylikt på den har den också att göra med mitt företag. Just den virtuella filserver'n ifråga är dock 100% till hemmabruk då den endast lagrar film, tv, musik, fotografier, böcker, bla bla bla.

Jag har också "riktiga" server's gående här (alltså inte whitebox hemmabyggen men Dell och HP/Compaq) - dock kommer även dessa flyttas in i VM's eftervart.

Just vad denna server'n kostade har jag ingen aning om - men mitt sista bygge gick på ungefär 15000,- inkl allt förutom diskar (har skrivit komponentlista och priser i en annan tråd för inte så allt för länge sedan - men dual Xeon L5420, 24GB Ram, 20-bay hotswap case, 2xSAS kontrollers etc). Det bygget vill jag tro kommer ha en kost på tillnärmat noll kronor efter tre år då det den sparar mig i el kostnader gentemot alla de tidigare fysiska maskinerna snabbt blir en hel del.

Diskar är relativt billigt idag och nu efter min senaste uppgraderering från 500GB till 1.5TB bör jag ha så jag klarar mig ett år till - eftersom folk på Tradera också betalar bortimot en krona per GB för begagnade diskar har det inte kostat mig ett öre att uppgradera såhär.

Citat:

Ursprungligen inskrivet av saddam
Jag håller fortfarande fast vid min åsikt, istället för en hemma NAS så ZFS bättre och billigare. Och det passar bättre än ett dyrt HW raid i hemmet. Vilken hemanvändare kör 24 diskar i ett hemma bygge + massa SAS diskar? ZFS to the rescue - i hemmen!

Som sagt - det finns fler än jag som har en server som det här. Vi är förvisso inte många, men det finns

Oavsett, jag ska hålla med om att ZFS är bättre än en standalone NAS enhet - men det är också både SW och HW RAID arrayer samt enkla JBOD chassi. Priset per GB - tycker jag iallafall - är det som bestämmer vad som är bäst här och har man redan en maskin som går 24/7 (eller iallfall vid alla tillfällen som man behöver tillgång till data som kunde varit lagrat på en NAS) blir det billigare att köra in en hög diskar i den existerande maskinen och köra whatever RAID (om något) man kan. Att köra ZFS iställetför betyder att man måste bygga ihop en hel maskin med moderkort, CPU, RAM etc (med mindre man konverterar sitt OS till [Open]Solaris eller annat av ZFS supported OS) - vad kostar det gentemot att köpa ett 8 portars (eftersom en hemma filserver endast kommer ha "6 diskar" max ;P) HW RAID kontroller av billigare märke eller att bara köra diskarna direkt på sitt moderkort med Intel's ICHxR chipset?

Jag är också interesserad i vilka fakta du kan peka på angående påståendet att HW RAID skriver i "blindo" som dundermuppen frågade.

Visa signatur

[Geek, Dad, Programmer, RC enthusiast, Technology evangelist]

Permalänk
Medlem

Eftersom mycket redan sags i tråden och allt orkade jag inte läsa. jag har kört lite mjukisraid. har en burk ståendes som kör raid 5 på ett PCI-X sata kort med sil3124 oc hstöder både sata 2 ncq, hot-plug osv för 995Kr

processorn får göra jobbet ja men so msagt inte specielt svårt att sätat upp i linux. Sedan som nån sa det är rätt lätt att rädda en raid aray i linux om man är lite jävlig om det blir nåt fel typ 5 disakr faller ur som det gjorde för mig. Jävla kabelglapp var det så fick byta kablar men fick igång den igen ändå.

Hårdvaru raid har en nackdel som inte nämts. Nån skrev att man kan bar ta kortet å diskarna å flytta till en annan server som om det vore en fördel. Är rätt uppenbart att det bör fungera. Nåt som inte nämdes är att pajar raid5 kortet och inte ett lika dant kan återfinas så kan man vara redit körd på att åteställa datan. Hände en polare när ahsn raid5 kort gav upp och det inte lägre gjordes.

Mjukisraid i linux tex kan man bara flyta över disakran till valfri maskin, behöver inte ens vara samam kontrolerkort och sedan kan man satarta upp arayn igen lätt som en plätt.

HW raid5 är nog snabbare på skriv än en mjukisraid men många billigare raid kort saknar minne och en fullfjädrad XOR processor också. Får upp i säg 3K+ för 4 port för å få ett ricktigt hårdvaru raid 5 PCI-X kort osv.

Dom flesta modärna processorer kan utan problem hantera en mjukvaru raid5 aray med 4 eller fler disakr i linux. Sedan avgör ju så klart vad man har för bussar och kontrolerkort anslutna vad prestandan blir.

Permalänk
Medlem

1. Vilket/Vilka OS är lämpliga/certifierade för ZFS för PC-skrot
- OpenSolaris 2008.11 ?
2. Hur mycket CPU-kraft och RAM rekas?
3. Finns nån minidist bootbar från CD/USB med inbyggd Samba?
4. Expansion av RAIDZ - hur?
- Går inte om du vill behålla datat?

Permalänk
Avstängd

Det var lite det jag ville få fram, när jag undrade vilken raid som diskuterades. Oavsett om man kör ZFS eller NTFS eller vad som helst så borde den prestandabegränsande faktorn vara hårdvaran (processor och minne) som diskarna är kopplade mot och inte filsystemet. Jag får även för mig att ett AMD system borde vara mer lämpat med den inbyggda minneskontrollern när paritet ska läsas/skrivas. Jag kan nästan svära på att jag också kan klämma fram 120MB/sec på fyra diskar i Windows mjuka raid0 vid läs/skriv men har aldrig testat med så få diskar så ta mig inte på orden

Det jag definitivt håller med om är att i en hemmamiljö och med en budget på ca 6000kr så är en egenbyggd filserver att föredra. Kan dock inte hålla med om att lära sig Solaris är det "optimala" tillvägagångssättet för en hemmapulare. Det ska mycket till för att övertyga mig om att majoriteten av dagens hemanvändare har en större vana i Solaris än exempelvis Windows. Mig veterligen ska även Vista Home Premium och uppåt klara av raid5 så behovet av ett server os för en filserver minskar. Men visst kan det vara kul att testa och pilla och lära sig nya saker.