Permalänk
Avstängd

Puppetfreek,
här står att man inte bör ha fler än 9 diskar i en raid grupp, enligt SUNs rekommendationer
http://mirrorshades.net/post/364176242

PS. iSCSI och ZFS:
http://mirrorshades.net/post/364980439#disqus_thread

Permalänk

Tänkte bara slänga in ett tipps, kanske så att ni redan känner till det men jag gör det ändå.
Av vad jag kunnat få fram så ser det ut som om att LSI Logic SAS3081E-R skall fungera prima med OSOL 2009.06:
http://www.lsi.com/storage_home/products_home/host_bus_adapte...
http://wordpress.fusetnt.com/tag/lsi-sas3081e-r/
http://opensolaris.org/jive/thread.jspa?messageID=470132&tsta...
http://mail.opensolaris.org/pipermail/zfs-discuss/2010-Januar...

Sista länken går till följande mail/inlägg:

Citat:

On 11/01/10 11:57 PM, Arnaud Brand wrote:
>
> According to various posts the LSI SAS3081E-R seems to work well with OpenSolaris.
> But I've got pretty chilled-out from my recent problems with Areca-1680's.
>
> Could anyone please confirm that the LSI SAS3081E-R works well ?
> Is hotplug supported ?
>
> Anything else I should know before buying one of these cards ?

These cards work very well with OpenSolaris, and attach using
the mpt(7d) driver - supports hotplugging and MPxIO too.

James C. McPherson
--
Senior Kernel Software Engineer, Solaris
Sun Microsystems
http://blogs.sun.com/jmcp http://www.jmcp.homeunix.com/blog

En ganska auktoritär person inom Solaris utvecklandet med andra ord.

Säljs på Dustin home för ~2000 (i alla fall för mig när jag är inloggad som student) heter dock SAS3081E-R-SGL på DH. http://www.dustinhome.se/pd_5010384066.aspx

Sen såg jag också precis det här på /.

Citat:

rubycodez writes

Citat:

"Oracle, having acquired Sun Microsystems, including its Unix, will no longer give away free Solaris licenses. Oracle also states that some features of its Oracle Solaris will not appear in OpenSolaris, which means OpenSolaris may start to die."

http://tech.slashdot.org/story/10/03/31/0141208/Solaris-No-Lo...

Visa signatur

Permalänk
Medlem

saddam: Enligt den första länken verkar (9+2) diskar vara ett av alternativen, alltså 11 diskar i varje grupp.

Med 20 diskar så verkar väl två stycken raidz2-grupper med 10 diskar i varje vara ett vettigt val tycker jag.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av rubycodez
Oracle also states that some features of its Oracle Solaris will not appear in OpenSolaris, which means OpenSolaris may start to die."

Det är bara vanlig FUD. Jag har postat flera länkar här om Oracles fortsatta satsning på OpenSolaris.

Angående att Solaris 10 inte längre är fritt, ja det var väl ganska väntat. Oracle är bra på att dra in mycket pengar, det var inte SUN. SUN öppnade och skänkte bort all sin grymma teknologi. Nu kommer det bli ändring på det med Oracle som ägare, de kommer ta höga priser på allt, kanske börja närma sig IBMs extrema priser. Men kanske kommer småföretagen inte bry sig. Man får ladda ned och testa S10 i 90 dagar. Efter det så dör inte installationen, man kan fortsätta köra S10. Annars får du ingen support. Men de stora företagen har ändå alltid supportavtal. De mindre företagen kan köra OpenSolaris som förblir gratis och öppet.

Det blir som RedHat och Fedora(?). S10 är RedHat. OpenSolaris är Fedora.

Rastersize, det där kortet verkar trevligt. Jag vill ha ett PCIe kort, utan h/w raid funk. Och det ska vara typ 16x eller 32x PCIe. Och jag vill det ska stödja det nya SATA 6GBps. Och ett hyfsat pris. Då migrerar jag kanske från min PCI-X SATA till detta kort. Skönt att kunna byta diskarna på ett enkelt sätt.

Permalänk

Yes, har läst att de rekommenderar <10 diskar i varje grupp. Men vad jag kunnat läsa är det (endast?) pga prestandaskäl. Sannolikheten att två diskar går sönder, är ju oberoende hur jag väljer att dela upp dem i olika grupper. Och tänker vi i värsta fall så kan jag med en stor grupp klara mig med två diskar som går sönder, oberoende av vilka de är. Delar jag upp det i mindre grupper, säg om 10, med raidz2 stämmer även detta. Men då förlorar jag 4TB extra på det. Skall jag istället få kvar samma utrymme så måste jag köra 2x10@raidz vilket medför att jag endast kan tillåta en disk går sönder.

OCH, skulle en disk gå sönder, är jag ju inte den som nödvändigtvis måste ha datorn igång 24/7 som i produktion, utan jag kan ta ner den tills jag fått en ersättningsdisk. Generellt tänkte jag lite så här: Jag kör nu 2st raid5 med 8 diskar i varje på en annan filserver. Jag har ibland fått skapa om raiden, men hitils har ingen disk någonsin gått sönder. Dubblerar jag antalet diskar, dubblerar jag också paririteten (raidz2), så borde det fungera rätt bra.

Jag har iofs inte testat fylla hela poolen för att se hur fort det går mot slutet. Men nu i början på den första TB, så gick det mycket fortare än vad jag själv egentligen behöver.

Permalänk
Citat:

Ursprungligen inskrivet av Puppetfreek
Yes, har läst att de rekommenderar <10 diskar i varje grupp. Men vad jag kunnat läsa är det (endast?) pga prestandaskäl....

Jag har tänkt skapa en raidz konfiguration som består av 12 diskar varav 3 ska gå till paritet. (raidz3). Vet du hur mycket prestanda som går förlorad om jag har så många diskar? Mitt krav är att jag kan skriva/läsa från filservern med hastigheter som befinner sig runt 50-70 MB/s

Visa signatur

Intel Core 2 Duo E6600@3.0GHz | Asus P5B Deluxe | Corsair XMS2 PC6400 4GB | XFX GeForce 8800GTX 630M 768MB GDDR3 |Seagate Barracuda 500GB NCQ 16MB SATA2 | Seagate Barracuda ES.2 1TB SATA2 32MB 7200RPM | Western Digital Caviar SE16 500GB SATA2 16MB 7200RPM |
Creative SoundBlaster X-Fi Fatal1ty | Eizo 24'' S2431WK | iPower 600 Watt Extreme edition | Windows Vista Business 64 Bitar SP1

Permalänk
Citat:

Ursprungligen inskrivet av Goliath2000
Jag har tänkt skapa en raidz konfiguration som består av 12 diskar varav 3 ska gå till paritet. (raidz3). Vet du hur mycket prestanda som går förlorad om jag har så många diskar? Mitt krav är att jag kan skriva/läsa från filservern med hastigheter som befinner sig runt 50-70 MB/s

Det bör inte vara några problem.

Dock kan det bero på vilka diskar du väljer. Man säger att varje vdev får samma prestanda som en av de diskar som sitter i den.
Generellt skulle jag idag avråda ifrån Western Digital Green Power diskarna då de har lite lustigheter för sig. Det är så att LLC (Load Level Count) ökar något helt otroligt under alla *nix-varianter (OSOL, Linux, Mac OS X, FreeBSD osv.) på dessa diskarna. Det är numera inte speciellt ovanligt med WD GP diskar som har miljoner i LLC och de är specade för ~300.000.

Jag har inga problem med att läsa i en bit över >80 MB/s ifrån min filserver (en vdev med åtta stycken WD GP diskar i raiz2 vid par2 verifiering där datat läses rakt in i min Mac Pros minne, par2 verifiering "drar" för övrigt sjukt mycket i IO-prestanda, >400 IO/s konstant under verifieringen). Skriva brukar ligga kring 50 MB/s, men då är det min Mac Pros disk som begränsar (en WD Blue) skulle mest troligen kunna skriva något snabbare om jag körde ifrån flera diskar samtidigt.

Tycker du att du får ut för låg hastighet så finns några lösningar (dessa baseras på att det inte är din CPU eller kontrollerkort som begränsar);
1) Lägga till ytterligare en vdev i din zpool. Du bör då få ungefär dubbla prestandan och dessutom dubbel (om det är samma storlek på diskarna i den nya vdev:en) mängd utrymme.
2) Byta ut alla diskarna i vdev:en till en annan modell som är snabbare. Ger nog marginell prestandaökning. Måste vara av samma storlek eller större än vad de tidigare diskarna var.
3) Koppla in en L2-cache disk (det vill säga en SSD). Har nog möjlighet(?) att ge bäst prestanda vid skrivning och med läsning om det är många som vill åt samma fil(er).
4) Köpa mer RAM, det vill säga L1-cache.

Kan säkert ha glömt något och/eller ha fel på något.

Av de alternativen är nog alt. 3) billigast och enklast. Dock är jag osäker på hur mycket bättre prestandan blir. Men för att repetera vad jag skrev ovan: det bör nog inte vara några problem för dig att nå upp till 50-70 MB/s med den konfigurationen.

Edit: Ett alternativ skulle ju annars vara att skaffa fyra diskar till (det vill säga 16 st) och köra två stycken raidz2 vdev:s i samma zpool. Fyra diskar går bort istället för tre men du får bättre prestanda och mer utrymme.

Visa signatur

Permalänk
Citat:

Ursprungligen inskrivet av rastersize
Jag har inga problem med att läsa i en bit över >80 MB/s ifrån min filserver (en vdev med åtta stycken WD GP diskar i raiz2 vid par2 verifiering där datat läses rakt in i min Mac Pros minne, par2 verifiering "drar" för övrigt sjukt mycket i IO-prestanda, >400 IO/s konstant under verifieringen). Skriva brukar ligga kring 50 MB/s, men då är det min Mac Pros disk som begränsar (en WD Blue) skulle mest troligen kunna skriva något snabbare om jag körde ifrån flera diskar samtidigt.

Jag har tänkt mig 8 GB ram minne med en dual processor E8600 på 3 GHz.

Jag undrar fortfarande om man ska köra en vdev med 12 diskar eller om man ska dela upp det! Vad är bäst? =/

Om det kommer 3 TB diskar och man delar upp det i 2 grupper då vill man ju inte köra raidz3 i varje grupp. Men det kanske är samtidigt dumt att köra raidz2 när diskarna är såpass stora volymmässigt.

För mig spelar det ingen roll om hela zpoolen blir dubbelt snabbare. eftersom jag endå har en begränsning i nätverket som är 1 Gbit/s.

Visa signatur

Intel Core 2 Duo E6600@3.0GHz | Asus P5B Deluxe | Corsair XMS2 PC6400 4GB | XFX GeForce 8800GTX 630M 768MB GDDR3 |Seagate Barracuda 500GB NCQ 16MB SATA2 | Seagate Barracuda ES.2 1TB SATA2 32MB 7200RPM | Western Digital Caviar SE16 500GB SATA2 16MB 7200RPM |
Creative SoundBlaster X-Fi Fatal1ty | Eizo 24'' S2431WK | iPower 600 Watt Extreme edition | Windows Vista Business 64 Bitar SP1

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Puppetfreek
Yes, har läst att de rekommenderar <10 diskar i varje grupp. Men vad jag kunnat läsa är det (endast?) pga prestandaskäl. Sannolikheten att två diskar går sönder, är ju oberoende hur jag väljer att dela upp dem i olika grupper. Och tänker vi i värsta fall så kan jag med en stor grupp klara mig med två diskar som går sönder, oberoende av vilka de är. Delar jag upp det i mindre grupper, säg om 10, med raidz2 stämmer även detta. Men då förlorar jag 4TB extra på det. Skall jag istället få kvar samma utrymme så måste jag köra 2x10@raidz vilket medför att jag endast kan tillåta en disk går sönder.

OCH, skulle en disk gå sönder, är jag ju inte den som nödvändigtvis måste ha datorn igång 24/7 som i produktion, utan jag kan ta ner den tills jag fått en ersättningsdisk. Generellt tänkte jag lite så här: Jag kör nu 2st raid5 med 8 diskar i varje på en annan filserver. Jag har ibland fått skapa om raiden, men hitils har ingen disk någonsin gått sönder. Dubblerar jag antalet diskar, dubblerar jag också paririteten (raidz2), så borde det fungera rätt bra.

Jag har iofs inte testat fylla hela poolen för att se hur fort det går mot slutet. Men nu i början på den första TB, så gick det mycket fortare än vad jag själv egentligen behöver.

Nej, det är inte enbart prestandaskäl utan även säkerhetsskäl man rekommenderar att begränsa storleken på grupperna.

Har du två grupper raidz2 så skulle "i bästa fall" 4 diskar kunna gå sönder (två i varje grupp) utan att arrayen går förlorad. Ju fler diskar man har i gruppen desto större sannolikhet att fler än två av dem går sönder samtidigt. Jag skulle överväga raidz3 med 20 diskar i samma grupp enbart för säkerhetsaspekten om prestandan inte spelar roll. Då får du ändå lite mer utrymme jämfört med två stycken raidz2 och säkerheten blir bättre då tre diskar vilka som helst kan gå sönder (men med två grupper i raidz2 så kan man ha oturen att alla tre trasiga diskar är i samma grupp). Själv tycker jag det verkar för mycket att köra 20 diskar i en enda grupp raidz2 men 20 diskar i en grupp raidz3 känns OK om prestandan inte är jätteviktig.

Permalänk
Citat:

Ursprungligen inskrivet av ronnylov
Nej, det är inte enbart prestandaskäl utan även säkerhetsskäl man rekommenderar att begränsa storleken på grupperna.

Har du två grupper raidz2 så skulle "i bästa fall" 4 diskar kunna gå sönder (två i varje grupp) utan att arrayen går förlorad. Ju fler diskar man har i gruppen desto större sannolikhet att fler än två av dem går sönder samtidigt. Jag skulle överväga raidz3 med 20 diskar i samma grupp enbart för säkerhetsaspekten om prestandan inte spelar roll. Då får du ändå lite mer utrymme jämfört med två stycken raidz2 och säkerheten blir bättre då tre diskar vilka som helst kan gå sönder (men med två grupper i raidz2 så kan man ha oturen att alla tre trasiga diskar är i samma grupp). Själv tycker jag det verkar för mycket att köra 20 diskar i en enda grupp raidz2 men 20 diskar i en grupp raidz3 känns OK om prestandan inte är jätteviktig.

Jag har funderat lite! tänker nog göra så här:

Totalt 14 diskar + 1 för Operativsystemet. Jag kommer skapa 2 grupper
som består av raidz3, 7 st i varje grupp. Då har jag raidz3 i båda grupperna.
förlorar 6 diskar! men det kanske är lönsamt när det börjar snart dyka upp 3 TB diskar på marknaden.

Men för att kunna göra det, behöver jag veta om detta kort fungerar i Opensolaris
" PE-124 eSATA II -3Gbps External 4Ports PCIe 8 lane Host Adapter " Är det någon här som har testat?

Sen har jag bara x16 PCIe plats ledigt i datorn. Undrar om ett PCIe x8 passar till PCIe x16 plats.

Visa signatur

Intel Core 2 Duo E6600@3.0GHz | Asus P5B Deluxe | Corsair XMS2 PC6400 4GB | XFX GeForce 8800GTX 630M 768MB GDDR3 |Seagate Barracuda 500GB NCQ 16MB SATA2 | Seagate Barracuda ES.2 1TB SATA2 32MB 7200RPM | Western Digital Caviar SE16 500GB SATA2 16MB 7200RPM |
Creative SoundBlaster X-Fi Fatal1ty | Eizo 24'' S2431WK | iPower 600 Watt Extreme edition | Windows Vista Business 64 Bitar SP1

Permalänk
Citat:

Ursprungligen inskrivet av Goliath2000
Jag har funderat lite! tänker nog göra så här:

Totalt 14 diskar + 1 för Operativsystemet. Jag kommer skapa 2 grupper
som består av raidz3, 7 st i varje grupp. Då har jag raidz3 i båda grupperna.
förlorar 6 diskar! men det kanske är lönsamt när det börjar snart dyka upp 3 TB diskar på marknaden.

Men för att kunna göra det, behöver jag veta om detta kort fungerar i Opensolaris
" PE-124 eSATA II -3Gbps External 4Ports PCIe 8 lane Host Adapter " Är det någon här som har testat?

Sen har jag bara x16 PCIe plats ledigt i datorn. Undrar om ett PCIe x8 passar till PCIe x16 plats.

Vet inget om det kortet, är det så att du redan har sådana kort eller?
Annars tippsade jag om ett x8 som ska (ej provat själv dock) med OSOL. Dock SAS men vad jag förstod av LSIs hemsida så ska SAS->SATAII kablage följa med. Men det bör man nog kolla upp innan man beställer.

PCIe x8/4/1 passar i PCIe x16 sockets. x4/1 passar då också självklart också i x8 och så vidare.

Jag antar att du vill ha raidz3 för att öka säkerheten att du inte tappar din pool, om du investerar så pass mycket pengar på lagringsbiten varför kör du då vanliga sketna icke-ECC minnen? För det går väll inte att köra ECC-minnen till en E8600? Utan ECC-minnen kan du inte vara säker på att du ens lagrar rätt data på din zpool.

Visa signatur

Permalänk
Citat:

Ursprungligen inskrivet av rastersize
Vet inget om det kortet, är det så att du redan har sådana kort eller?
Annars tippsade jag om ett x8 som ska (ej provat själv dock) med OSOL. Dock SAS men vad jag förstod av LSIs hemsida så ska SAS->SATAII kablage följa med. Men det bör man nog kolla upp innan man beställer.

PCIe x8/4/1 passar i PCIe x16 sockets. x4/1 passar då också självklart också i x8 och så vidare.

Jag antar att du vill ha raidz3 för att öka säkerheten att du inte tappar din pool, om du investerar så pass mycket pengar på lagringsbiten varför kör du då vanliga sketna icke-ECC minnen? För det går väll inte att köra ECC-minnen till en E8600? Utan ECC-minnen kan du inte vara säker på att du ens lagrar rätt data på din zpool.

Jag har inte köpt hårddiskarna än! Kanske väntar in 3 TB diskar
Men angående ECC-minnen, är det verkligen nödvändigt? Jag ska ju bara ha zpoolen till lagringsplats! Jag tar mycket bilder och filmer med min system kamera visste inte ens om att det kunde bli fel i överföringen pga val av minne! Första gången jag hör att det kan eventuellt finnas sådana problem :S

Visa signatur

Intel Core 2 Duo E6600@3.0GHz | Asus P5B Deluxe | Corsair XMS2 PC6400 4GB | XFX GeForce 8800GTX 630M 768MB GDDR3 |Seagate Barracuda 500GB NCQ 16MB SATA2 | Seagate Barracuda ES.2 1TB SATA2 32MB 7200RPM | Western Digital Caviar SE16 500GB SATA2 16MB 7200RPM |
Creative SoundBlaster X-Fi Fatal1ty | Eizo 24'' S2431WK | iPower 600 Watt Extreme edition | Windows Vista Business 64 Bitar SP1

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Goliath2000
Men för att kunna göra det, behöver jag veta om detta kort fungerar i Opensolaris
" PE-124 eSATA II -3Gbps External 4Ports PCIe 8 lane Host Adapter " Är det någon här som har testat?

Är det ett sådant här kort du menar http://www.lycom.com.tw/PE124.htm ? Ofta är alla kort byggda på samma referensdesign så tar man reda på vilka chip som sitter på kortet brukar det gå att få en hum om eventuellt hårdvarustöd.

Det verkar vara ett kort som är skapat för externa disklådor med inbyggda "SATA-port multipliers" tex http://www.lycom.com.tw/ST158PC.htm . Jag vet inte om detta stöds av OpenSolaris med det är en kul teknologi. Visserligen får man lite taskig prestanda när fem diskar delar på en sata-kanal, men i vissa applikationer spelar det ingen roll.

Permalänk
Citat:

Ursprungligen inskrivet av Goliath2000
Jag har inte köpt hårddiskarna än! Kanske väntar in 3 TB diskar
Men angående ECC-minnen, är det verkligen nödvändigt? Jag ska ju bara ha zpoolen till lagringsplats! Jag tar mycket bilder och filmer med min system kamera visste inte ens om att det kunde bli fel i överföringen pga val av minne! Första gången jag hör att det kan eventuellt finnas sådana problem :S

Min högst personliga åsikt är att det är nödvändigt. Det känns enligt mig helt onödigt att ha ett filsystem som detekterar "bit/data rot" om man inte ens kan vara säker på att datat som sparats till disken är rätt eller att datat inte ändrats i RAM när man läser det senare. Jag tycker att man förlorar lite utav poängen med zfs om man kör utan ECC-RAM. Visst man får alla andra trevliga zfs "features" men du kan inte längre lita på datat är korrekt.

Det är dock rent praktiskt inte nödvändigt och kör man på Intel-platform är det tämligen mycket dyrare med ECC eftersom det krävs XEON CPU med tillhörande moderkort. Som ju också ska fungera med OSOL.

Visa signatur

Permalänk
Medlem

Med 14 diskar skulle jag antingen kört en grupp raidz3 (förlorar 3 diskar) eller två grupper raidz2 (förlorar 4 diskar). Känns överdrivet med två grupper raidz3.

Permalänk
Avstängd

Jag har funderat lite och är inne på samma banor som Goliath2000 med raidz3. Antag att det kommer 10TB diskar, eller större. Antag att du har 6st diskar i en zpool. 10TB diskar är så mycket så att du kommer att vilja ha raidz3 i det fallet, därför att det kommer att ta en vecka minst (kanske flera veckor?) att återskapa raidet om en disk kraschar. Antag att det kommer 100TB diskar eller en ny teknologi, så det är 1000TB diskar. Då räcker totalt med typ 2-3 diskar för alla dina behov, och då vill du garanterat köra raidz3. Ju större diskar, desto mer redundans vill du köra. Och diskarna blir bara större och större. Jag tycker Goliath2000 är inne på rätt spår, det är en väldigt långsiktig strategi han har. Men samtidigt, om det nu kommer 10TB diskar eller så, det kommer att ta flera år innan vi är där. Och då kan man bygga om sin raid helt. Så jag tror inte det är nån fara, jag tror raidz2 räcker i flera år. När diskarna är riktigt stora så vill man nog köra raidz3. Men det är för många år tills dess. Nu pratar jag normal storavdevs. Skulle jag köra stora vdevs, typ 20 diskar så skulle jag garanterat köra raidz3. Det händer att två diskar kraschar och man får läsfel på en disk, då duger inte raidz2. Nån berättade på opensolaris forumet att han råkat ut för det så han förlorade sina data. Spelar roll om man avdelar 2 diskar eller 3 diskar till redundans när man pratar om 20 diskar. Men det är bara jag det.

Angående ECC, så har ju dataforskare undersökt ZFS om det håller vad det lovar. Slutsatsen är att om man kör ZFS utan ECC så är det inte alls bra, det blir en osäker lagringslösning. ECC minne har funnits i många år, av det drar jag slutsatsen att behovet har funnits i många år. RAM minnet har korruptat bits, och det har man känt till och observerat. På samma sätt har man först nu observerat att filsystem också korruptar bits. Antag att SATA/SAS diskar skriver ned en bitsträng och allt ser bra ut när bitsträngen lämnar kontrollerkortet, men antag att bitsträngen korruptas på vägen. Bitsträngen var korrekt när den lämnade kontroller kortet, men den skrivs ned fel pga strömspik eller nåt sånt. Enda sättet att ta reda på om bitsträngen på disken och den i RAM överenstämmer, är att läsa tillbaka bitsträngen och jämföra. Som jag har förstått det så är det endast ZFS som gör denna check (nästa gång den läser). Så antag att datat flippats i RAM, då skrivs datat ned korrekt, men datat är korruptat! Då hjälper det inte att ZFS garanterar att datat skrivs ned helt korrekt (utan att bitar flippats på vägen), men tänk om bitarna har flippats innan ZFS får dem? Därför krävs ECC. JAg kommer garanterat att köra ECC RAM nästa server. Då får man en riktigt säker lösning.

Permalänk

Det är för mig vad jag kallar "falsk trygghet". Om vi jämför de två fallen:

1st Raidz2 à 20 diskar:
Här kan två diskar, vilka som, gå sönder utan att jag förlorar arrayen.

2st Raidz2 à 10 diskar:
Här kan två diskar, vilka som, gå sönder utan att jag förlorar arrayen. Men, här kan också (om jag har "tur"), ytterligare en disk gå sönder, och om jag har ännu mera "tur", ännu en disk gå sönder.

Mitt scenario:
Skulle en disk gå sönder för mig, har jag inga problem att stänga av arrayen tills jag får en ny disk [detta motsvarar ju hotswap]. Sannolikheten att sedan två diskar går sönder innan jag hinner bygga om arrayen anser jag vara rätt liten med tanke på hur snabb CPUn är (bästa är kanske att testa?). Sedan utgår jag lite från gamla erfarenheter; jag har kört raid5 på 8 diskar nu i ...4 år, och hitils har ingen disk gått sönder. Så utgår man från att sannolikheten att 2 diskar skulle gå sönder samtidigt som rätt minimal, speciellt nu också då att en tredje disk går sönder innan jag hinner bygga om arrayen. Så att köra raidz3 för mig blir lite för "onödigt". Och vad jag menade med "falsk trygghet" är att om en disk går sönder, kommer jag inte pressa på arrayen och köra på som tidigare. För mig är scenariot när 1 disk gått sönder då jag börjar angera, inte efter 2 eller 3 diskar havererat. Sedan, har jag märkt att det ofta är känsligare att skriva än att läsa till disk. Så skulle en fallera kan jag antingen stänga av arrayen eller se till att inte skriva till den.

Så, visst ökar "säkerheten" men den lilla säkerhet det ger anser jag inte vara någon säkerhet för mig. Hade jag känt behov av högre säkerhet hade jag nog isåfall hellre kört raidz3.

På min andra filserver har jag en AMD 2000+, 1GB ram och ett 4x gamla 4p SATA-kort. Att återskapa arrayen på 8x500 med raid5 tar runt 18h och runt 36h för 8x1000 raid5. Det som belastas mest är CPUn. I mitt nya fall har jag nu raidz2 på 20x2, dvs 5x mera data än 8TB arrayen. Jag antar att det i "värsta fall" skulle ta 36x5 = 7 dagar att skapa om den. Detta om jag forfarande körde en 2000+. Nu kör jag ju en CPU som motsvarar i7 920, så den borde i alla fall vara lite snabbare, säg kanske dubbelt? Räknar vi sedan med 3.5 dygn att skapa om arrayen anser jag det vara tillräckligt kort tid innan 2 ytterliggare diskar inte hinner haverera.

Saddam: När vi kommer till diskar som har 100TB tror jag vi har lite snabbare diskar, datorer så det kanske inte tar evigheter Förhoppningsvis har vi kanske säkrare media att skriva till Fast 10TBs diskar ligger ju i alla fall inom "en nära framtid".

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Puppetfreek
Saddam: När vi kommer till diskar som har 100TB tror jag vi har lite snabbare diskar, datorer så det kanske inte tar evigheter

Hittills har det varit så att lagringstorleken har ökat mycket mera än bandbredden. Så det finns goda skäl att anta att hårddiskar fortsätter att bli långsamt snabbare, medan lagringstorleken ökar mycket snabbare. Mao, det kommer att ta ännu längre tid i framtiden att reparera ett raid, om trenden fortsätter som idag. Och då, kommer man ångra att man inte körde raidz3. Men dit är det flera år. Och när vi nått dit, så kommer antagligen ZFS erbjuda möjligheten att ändra konfig från raidz2 till raidz3 (block pointer rewrite funktionaliteten finns redan idag och funkar på en helt idlande zpool). Så idag kanske det är onödigt att köra raidz3? När behovet för raidz3 uppstår så är det helt andra spelregler som gäller då, och annan hårdvara som gör dagens förutsättningar icke valida?

Det är klart, om alla går över till SSD så gäller inte detta längre.

Permalänk

Nu har äntligen min server blivit stabil, det var med den senaste utgåvan av OS som den ordnade till sig ordentligt.

Jag har bara en sak som stör mig, men det är nog inget med OS.

När jag ska logga in från windows 7 s klagar den första 30 sek att lösenordet är fel, sen går det fint efter en stund.
Det är bara från min dator den gör detta, inte andra w7 datorer men jag kan inte lista ut vad det är som gör att min dator beter sig så...

Permalänk
Medlem

ronnylov:
jag är lite intresserad av vad din server klarar av, det är väl #3 i din sign? jag har ett asus 780G & amd 5050e liggandes, ganska jämna med dina komponenter. funderar på att ta hem 5st 1TB diskar och 2x1GB DDR2 ECC och försöka mig på att få ihop ett raidz med osol.

är det möjligt att den står å tuggar torrents medan jag streamar HD-material till min htpc till exempel? eller hur ligger dessa komponenter till på prestanda skalan?

(inget gigabit här, använder endast en DIR-615)

Permalänk
Medlem

Beror väl på hur snabbt bedband man har. Kan tänka mig att det segar ner om man maxar en 100 Mbit lina mot internet och samtidigt kör 100 Mbit lokalt. Själv kör jag 10 Mbit på internet och gigabit lokalt.

Nu kör jag inte så mycket torrent men däremot har jag kört en del usenet med sabnzbd och märker inga prestandaproblem. Jag kör nerladdningarna från internet mot systemdisken för att inte behöva väcka upp min raidz ur viloläget (green power diskar) men tror att det också är bra prestandamässigt att göra så eftersom det inte verkar påverka filserverprestandan så mycket.

Jag har till och med klockat ner litegrann eftersom jag inte märker någon försämrad prestanda om jag kör processorn på 2 GHz istället för 2,5 GHz. Så min gissning är att en 5050e bör räcka utmärkt. För övrigt är det inte särskilt påfrestande att streama HD-film på lokala nätverket. Det räcker väl med runt 30 Mbit/s max eller liknande, ofta betydligt lägre.

Permalänk
Medlem

Detta möttes jag av idag:

pool: storage state: DEGRADED status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. see: http://www.sun.com/msg/ZFS-8000-8A scrub: resilver completed after 0h0m with 0 errors on Sat Apr 17 21:42:27 2010 config: NAME STATE READ WRITE CKSUM storage DEGRADED 0 1 0 raidz1-0 DEGRADED 0 2 0 c7d0 ONLINE 0 0 0 c10d0 DEGRADED 0 2 107 too many errors c10d1 DEGRADED 0 2 33 too many errors c11d0 ONLINE 0 0 0 c11d1 ONLINE 0 0 0

Dock tycker jag det verkar mysko att två diskar skulle ha gett sig samtidigt. Servern är iaf. avstängd tills vidare. Får bli grundlig felsökning i helgen.

Visa signatur

Datorer - M1 MacBook Pro 14"
Hörlurssystem - Scarlett 4i4 / Objective2 / Beyerdynamic DT 770
Ljudsystem - NAD C356BEE > DALI Mentor 6
Bilpark - Porsche 718 Spyder

Permalänk
Avstängd

Aj då, det ser inte bra ut. Du får gärna hålla oss uppdaterade hur det går.

Permalänk
Avstängd
Skrivet av Puppetfreek:

Det är för mig vad jag kallar "falsk trygghet". Om vi jämför de två fallen:

1st Raidz2 à 20 diskar:
Här kan två diskar, vilka som, gå sönder utan att jag förlorar arrayen.

2st Raidz2 à 10 diskar:
Här kan två diskar, vilka som, gå sönder utan att jag förlorar arrayen. Men, här kan också (om jag har "tur"), ytterligare en disk gå sönder, och om jag har ännu mera "tur", ännu en disk gå sönder.

Mitt scenario:
Skulle en disk gå sönder för mig, har jag inga problem att stänga av arrayen tills jag får en ny disk [detta motsvarar ju hotswap]. Sannolikheten att sedan två diskar går sönder innan jag hinner bygga om arrayen anser jag vara rätt liten med tanke på hur snabb CPUn är (bästa är kanske att testa?). ...

Kom att tänka på dig. Jag hittar inte inlägget nu, men nån snubbe på OpenSolaris forumet körde med 20 diskar i en enda vdev grupp. När en disk kraschade och han skulle byta disk så gick det grymt långsamt pga låga IOPS, och körde servern i produktion samtidigt. Efter en vecka(?) avbröt han och skapade en ny zpool med flera vdev grupper - och då gick allt snabbt som det skulle.

Mao, vi är många här (du går dessutom emot SUNs ZFS rekommendationer) som har avrått från att köra 20 diskar i en enda vdev - jag tycker du ska prova att ta loss en disk och se hur lång tid det tar att återskapa din zpool. Det kanske tar en vecka eller två? Då ligger dina data risigt till, och det vill du inte. Testa snarast?

Permalänk
Medlem
Skrivet av saddam:

Aj då, det ser inte bra ut. Du får gärna hålla oss uppdaterade hur det går.

I will. Förresten, tänkte på en sak. Om jag köper 2st 2TB diskar och byter ut de felande. Kör på det tills jag har råd att byta ut de 3 resterande diskarna. Får jag tillgång till 2TB på alla diskarna sen när alla är utbytta?

Visa signatur

Datorer - M1 MacBook Pro 14"
Hörlurssystem - Scarlett 4i4 / Objective2 / Beyerdynamic DT 770
Ljudsystem - NAD C356BEE > DALI Mentor 6
Bilpark - Porsche 718 Spyder

Permalänk
Avstängd

Japp, diu får 2TB per disk när alla är utbytta.

Men väntar du med att köpa 2TB diskar, så kanske de blir riktigt billiga då? Jag funderade på att göra så, men avstod. Jag fortsatte med 1TB diskarna. De var ju billiga. Tids nog byter jag till 2TB diskar, och då är de billigare.

Permalänk
Medlem
Skrivet av saddam:

Japp, diu får 2TB per disk när alla är utbytta.

Men väntar du med att köpa 2TB diskar, så kanske de blir riktigt billiga då? Jag funderade på att göra så, men avstod. Jag fortsatte med 1TB diskarna. De var ju billiga. Tids nog byter jag till 2TB diskar, och då är de billigare.

Har 750GB's diskar nu. Får se hur jag gör. Usch vad svårt Tack för hjälpen iaf! Ska felsöka imorgon!

Visa signatur

Datorer - M1 MacBook Pro 14"
Hörlurssystem - Scarlett 4i4 / Objective2 / Beyerdynamic DT 770
Ljudsystem - NAD C356BEE > DALI Mentor 6
Bilpark - Porsche 718 Spyder

Permalänk
Medlem

Efter att ha öppnat servern och ryckt och kollat alla kablar, gått in i BIOS och klockat ner den (ja, den var lite överklockad...) så ser det nu ut så här. Verkar funka bättre nu Får se vad den säger när den scrubat klart.

pool: storage state: ONLINE status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. see: http://www.sun.com/msg/ZFS-8000-8A scrub: scrub in progress for 0h7m, 2,96% done, 4h7m to go config: NAME STATE READ WRITE CKSUM storage ONLINE 0 0 0 raidz1-0 ONLINE 0 0 0 c7d0 ONLINE 0 0 0 c10d0 ONLINE 0 0 0 c10d1 ONLINE 0 0 0 c11d0 ONLINE 0 0 0 c11d1 ONLINE 0 0 0

Visa signatur

Datorer - M1 MacBook Pro 14"
Hörlurssystem - Scarlett 4i4 / Objective2 / Beyerdynamic DT 770
Ljudsystem - NAD C356BEE > DALI Mentor 6
Bilpark - Porsche 718 Spyder

Permalänk

Saddam: Ja, det har jag tänkt göra. Just nu verkar det dock som modekortet strular. Datorn bara totalfryser sig vid belastning av någon hårddisk (oavsett om det är från modekortet eller kontrollerkortet). Har testat memtest och det fungerar bra. Samt ett CPU burn test, och inge fel där. Men så fort jag försöker bara scanna igenom sektorer eller något likannde på en disk så fryser den sig, oavsett om jag kör windows 7, ubuntu eller opensolaris. Kollar jag sedan i bios så står CPU temp på 0 grader, vilket inte verkar så lovande. Så skall skicka in det på reperation. Tills dess är servern nere, men jag skall se vad som händer om jag fyller den med 30TB och sedan raderar en disk och trycker in den igen och scrubbar. Förhoppningsvis borde det gå inom 1-2 dygn

Permalänk
Avstängd

Jilted82, hur gick det? Har du sett flera fel?

Själv tycker jag det är skitbra att ZFS är så känsligt att det fångar upp alla problem omedelbart. Jag gissar att med andra filsystem så skulle du aldrig fått någon varning alls, och du hade fortsatt ovetandes. Och efter ett tag så hade du haft silent corruption.

Puppetfreek, det lär nog ta en vecka innan raidet reparerat sig själv med 20 diskar i en vdev (enligt snubben på opensolaris forumet). Detta är ju inte acceptabelt. Sen föreslår jag att du testar samma sak med 3 vdev grupper och ser hur stor skillnaden i prestanda blir, och hur lång tid det tar att reparera raidet då.