OpenSolaris 2009.06 är här!

Permalänk
Avstängd
Permalänk
Medlem
Visa signatur

OS: FreeBSD, Ubuntu, Raspbian, iOS, OSX
HW: PC, Mac & iPrylar

Permalänk
Medlem
Citat:

Jepp, har redan uppdaterat. Märker ingen direkt skillnad mot b133. Återkommer

Visa signatur

Datorer - M1 MacBook Pro 14"
Hörlurssystem - Scarlett 4i4 / Objective2 / Beyerdynamic DT 770
Ljudsystem - NAD C356BEE > DALI Mentor 6
Bilpark - Porsche 718 Spyder

Permalänk
Avstängd

Här är några videos om ZFS, bl.a. om dedup
http://uadmin.blogspot.com/

Permalänk
Medlem

Är det någon som vet hur det funkar med de nya hårddiskarna som kör 4K sektorer om man använder dem med ZFS?

T.ex. denna:
http://www.prisjakt.nu/produkt.php?p=527179

Var ju en artikel uppe här på sweclockers som påstod att alla moderna operativsystem fixar det men när jag kollade upp saken verkar det t.ex. inte finnas automatiskt stöd i t.ex. Linux (man får manuellt aligna partitionerna så funkar det). Men med ZFS så partitionerar man ju normalt inte lagringsdiskar...

Verkar finnas ett projekt, men hur har det gått?
http://mail.opensolaris.org/pipermail/storage-discuss/2009-Ma...

Söker lite till:
http://opensolaris.org/jive/thread.jspa?messageID=455146
Ajdå, dessa diskar verkar vara något som bör undvikas tills ZFS får fullt stöd för 4K sektorer.

Citat:

ark Bennett <mark dot bennett at public dot co dot nz> writes:

> Update:
>
> For the WD10EARS, the blocks appear to be aligned on the 4k boundary
> when zfs uses the whole disk (whole disk as EFI partition).
>
> Part Tag Flag First Sector Size Last Sector
> 0 usr wm 256 931.51Gb 1953508750
>
> calc 256*512/4096=32

I'm afraid this isn't enough. if you enable compression, any ZFS write
can be unaligned. also, if you're using raid-z with an odd number of
data disks, some of (most of?) your stripes will be misaligned.

ZFS needs to use 4096 octets as the basic block to fully exploit
the performance of these disks.
--
Kjetil T. Homme
Redpill Linpro AS - Changing the game

Så frågan är när väntas stöd för dessa nya hårddiskar komma?
Är det problemfritt i raidz om man alltså kör med jämnt antal diskar och undviker kompression?

Permalänk

Med tanke på Intels senaste processorer, speciellt de nya XEON-modllerna, som ju har specifika instruktioner för AES; är det någon som vet om, eller när, detta kan komma att nyttjas utav ZFS Crypto? Ifall ZFS Crypto kommer att kunna dra nytta utav dessa nya fina instruktioner så vet i alla fall jag vad för typ av processor jag ska införskaffa nästa gång det blir tal om att uppgradera och aktivera crypto

Visa signatur

Permalänk
Medlem

ronnylov & rastersize: Det är nog bara folk från zfs-discuss på opensolaris.org som kan svara på era intressanta frågor. Men var inte rädda för att sprida svaren här...

Permalänk

Dedup | Compression

Tja,

Rätt ny här (på att skriva inlägg). Men tänkte i alla fall säga att jag testat att leka lite med dedup och compression. För att se skillnaderna i dels hastighet men också grad av vinst.

Kör OpenSolaris 134 på en W3520, 6GB ECC, 2x500GB + 20x2TB diskar.

Skapade en pool med raidz2 på 20x2, och skapade där i tre olika zfs filsystem.

[None] Ett utan vare sig compression eller deduplication.
[Comp] Ett med compression (gzip-9) dvs max compression
[Dedup] Ett med deduplication (sha256, strict) för högsta verifikation

Jag la 8GB på 'None' och kopierade sedan det över till både 'Comp' och 'Dedup' för att se skillnaderna.

[Comp] - 1m29s
[Dedup] - 57s

För att se hur detta skalar sig testade jag lägga runt 800GB på 'None' och uföra testet igen.

[Comp] - 168m26s
[Dedup] - 393m38s

temp/none 34608236329 819688767 31577282969 3% /temp/none
temp/comp 34608236329 819095382 31577282969 3% /temp/comp
temp/dedup 34608236329 819698258 31577282969 3% /temp/dedup

Här kan vi se att 'comp' inte hjälpte mycket. Jag tjänare några ynka MB + att CPUn fick mycket högre load. För dedup blev det ännu värre, jag förlorade på det

MEN, nu kommer det mera problematiska. Att köra en zfs destroy på 'comp' gick rätt så fort. MEN, när jag kör den på dedup så slutade datorn att svara. Och den hänger sig vid "loading ZFS config*". Efter lite sökande på nätet inser jag att detta inte är ett så ovanligt fenomen[1] för dedup och kan ta några dagar för stora partitioner och är också beroende på ram. Och nackdelen för min del är att jag har en stor partition och lite ram, så den får väl stå och köra under påsken för att bli klar.

Någon kanske vet en workaround? Hade helst sluppit rensa alla diskar och skapat om allt.

[1] - http://www.mail-archive.com/zfs-discuss@opensolaris.org/msg34...

Permalänk
Medlem

Någon som vet när 2010.03 släpps? Har för mig att jag sett 26 mars någonstans.

Permalänk

Puppetfreek:
Känner tyvärr inte till någon workaround. Men om du nu bestämmer dig för att rensa alla diskar och skapa om allt så skulle jag vilja tippsa om att 2 stycken raidz2 vdev:s om 10 stycken diskar ger bättre prestanda än 1 styck raidz2 vdev om 20 diskar. Du "förlorar" ju dock utrymmet utav fyra diskar istället för två. Det är dock helt upp till dig vad du anser vara viktigast. Men jag skulle nog har kört raidz3 med så pass många diskar i en enda vdev.

cny:
Nope har inte hört något men den borde ju komma nu i dagarna.

Visa signatur

Permalänk

Såg precis följande tweet av Darren Moffet:

Citat:

European mirror for #opensolaris package repository http://pkg-eu-2.opensolaris.org/dev

- http://twitter.com/darrenmoffat/status/11104067819

Trevligt må jag säga

Visa signatur

Permalänk
Avstängd

Puppetfreek
Intressant! Men testa att skapa 3st vdev grupper istället. Det kommer att ge dig mycket bättre prestanda. Typ, 3st raidz2 grupper med 6 diskar i varje grupp, och 2 hotspare. Eller så lägger du till ytterligare en 2TB disk (kanske till moderkortet?) och kör 3 st raidz2 grupper med 7 diskar i varje grupp. (Men i produktion så bör du ha minst en hot spare, så jag skulle nog köra 22 diskar: 3 st raidz2 grupper med 7 diskar i varje och en hot spare. Eller 25 diskar: 3st raidz2 grupper med 8 diskar i varje och en hot spare). Prestandan kommer att ändras till det bättre om du har tre st raidz2 grupper, så gör om testerna, dvs du måste förstöra ditt raid och skapa på nytt. (raidz2 är viktigt, tumma inte på det, tycker jag.)

Kan du jämföra prestandan mellan ditt nuvarande raid med en enda stor raidz2 grupp, och en ny raid med 3st grupper raidz2? Du borde komma upp över > 1GB/sek läsning med 3st grupper.

Vad har du för hårdvara när du kör 20 diskar? Vilka kontroller kort? Funkar det bra eller var det strul att sätta upp? Har du funderat på att lägga till en SSD disk? Den kan snabba upp dedup oerhört, typ 10 ggr snabbare eller så.

Och när du kör dedup, hur mycket data blev deduppad? 3% data? Dvs du fick 3% mer utrymme? Isåfall låter det som random data du skapat? Det är inte riktiga filer? Om du lagrar riktiga filer så lär du få mycket högre dedup ratio.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av saddam
Och när du kör dedup, hur mycket data blev deduppad? 3% data? Dvs du fick 3% mer utrymme? Isåfall låter det som random data du skapat? Det är inte riktiga filer? Om du lagrar riktiga filer så lär du få mycket högre dedup ratio.

Varför skulle riktig data ge högre dedup ratio? Det jag har hittat på internet[1] hittills och mina egna tester har inte fått mig att hoppa jämfota av glädje precis. Har du provat själv?

[1] http://apaton.blogspot.com/2010/02/zfs-compression-vs-dedupli...

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Fnorken
Varför skulle riktig data ge högre dedup ratio? Det jag har hittat på internet[1] hittills och mina egna tester har inte fått mig att hoppa jämfota av glädje precis.

Därför att slumpmässig data inte ger många identiska datablock. Programfiler innehåller däremot relativt ofta identiska block (t.ex. runtimes eller init-kod från standardbibliotek, etc). Jag tror däremot inte heller att skillnaden blir så väldigt stor. Dedup är väl snarare framtaget för stora lagringsvolymer där man lagrar data med mycket gemensamma block (t.ex. near-online storage där man lagrar snapshots eller backupkopior) eller volymer där data dupliceras i hög grad (t.ex. vid virtualisering).

Permalänk

Tja igen,

Jag har nu lämnat datorn att stå och tugga (eller vad den nu tänks göra) för att bli färdig. Har sett att vissa fått vänta 4 dygn på att få sina destroy av dedup färdiga (nästa gång får det bli rm -rf ).

Pjta, jag är inte så sugen på att ändra volymen till en mindre. Dels för att jag har den bara som intern lagringsenhet, och när jag körde en dd till arrayen kom jag upp i 700MB/s vilket är betydligt snabbare än mitt nätverk ändå. Men visst håller jag med om att jag hade fått snabbare om jag delat upp det.

Hårdvaran var det inte speciellt mycket strul med, tog par kända billiga kontrollerkort [1] som skall fungera med OpenSolaris. Sedan såg jag bara till att hitta ett modekort som hade stöd för ECC och W-serien (W3520), samt minst 6 sata och två PCI-X. Hittade då faktiskt ett Asus P6T WS Professional som höll alla dessa krav

Och användadet av SSD-disk skulle givetvis boosta upp min hastighet, fast då måste jag skaffa ännu en disk för något som inte gav mig något Och som svar på vad filerna var för något så är det inte random data i alla fall. Och jag förlorade data med dedup i jämförelse med utan Detta kan bero på att jag använda sha256, strict - men det hade ju blivit helt fel om jag inte använt det.

Något med en ssd-disk över kanske har lust att testa? Jag blir bara glad om jag får igång poolen igen - har ju 500gb av data där jag inte vill bli av med helst

[http://www.mullet.se/product.html?product_id=133690]

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Fnorken
Varför skulle riktig data ge högre dedup ratio? Det jag har hittat på internet[1] hittills och mina egna tester har inte fått mig att hoppa jämfota av glädje precis. Har du provat själv?

[1] http://apaton.blogspot.com/2010/02/zfs-compression-vs-dedupli...

Det finns en gren av teoretiska datalogin som heter algoritmisk informationsteori. Där definieras slump som något som inte går att komprimera ytterligare. Även vanlig Entropi har en liknande definition. Mao, att använda slumpmässig data är det värsta, för det kan du inte komprimera alls, det finns inget mönster däri. Det torde vara likadant för dedup, dvs det värsta.

Jag räknar helt kallt med att när jag kör dedup och komprimering på mitt Ebooks filsystem, så får jag minst 2-3x ratio. Antagligen mycket mera.

Puppetfreek,
Ok. Men kanske borde du inte kört 20 diskar i en grupp ändå. Du har ju bara 500GB data just nu som du faktiskt kan backa upp till en enda disk. Om du vill bygga om din raid när du har 15TB data så blir det jättejobbigt. Jag tycker du ska läsa denna post. Snubben har nästan din config, men har 24 diskar istället.
http://forums.freebsd.org/showpost.php?p=22025&postcount=17

Enligt posten: nackdelar med att ha en enda stor 20 diskars raid:
1) Att byta disk orsakar hela raidet att börja gå långsamt, tydligen.
2) Prestandan suger rejält när vi pratar om IOPS. Din IOPS blir lika snabb som om du hade en enda disk! Vilket är skrattretande dåligt. Som jag har förstått det, så är IOPS förmågan att göra många saker samtidigt. Så SSD är ju mycket snabbare på att ladda flera program samtidigt, pga hög IOPS. Flera klienter kan accessa disken samtidigt utan att disken tvärdör - dvs hög IOPS. Eftersom du har IOPS motsvarande en disk så kommer hela din ZFS raid att storkna om du sätter den i ett nätverk med fler än en klient. Typ. Vill du ha riktigt hög IOPS så måste du köra mirrors, eller adda SSD diskar. Det är många som anser att hög IOPS är mycket viktigare än många MB/sek, därför att då kan man serva många klienter utan att de får vänta evigheter. Jag tror du kommer att ångra dig i framtiden att du inte byggde om din server till 3st grupper.

Vilket monster. 20 diskar. Vad använder du datorn till? Pr0n?

EDIT: dedup kräver mycket RAM. Jag misstänker du har för lite RAM och för mycket lagring för dedup. Nån hade addat mera RAM och då gick dedup oerhört mycket snabbare. Dedup försöker lagra väldigt mycket RAM eftersom du har så mycket disk. Om du har för lite RAM, så måste dedup börja skriva ned på disk och då går det långsamt.

Permalänk

Du menar att rebuilden skulle ta långtid?

Och visst är det bra med IOPS, fast nu har jag inte så många användare (ensam). Så det är mest bara en dumburk som står och tickar för mig - som ett stort NAS. Visst har den lite kraftigare CPU och så, men det har jag tänkt använda som webmail, firewall, webbserver etc. Och om jag jämför med min andra dator som jag kör bl.a. en 8x1TB raid5 på, med vanlig PCI-portar och en gammal AMD2000+ så tar det runt 20h att köra en resync på alla data (100mb ledigt). Det är väl helt okey eftersom jag forfarande kan accessa datan samtidigt, även om det går i några MB/s. Och jag antar och hoppas att med denna nya dator så kommer jag få lite mer än några MB/s vid eventuella resync/rebuild. Och 500gb data var bara lite testdata jag förde över från min andra filserver, så det kommer mera.

Mmm, ram har jag sett läst är en nyckelfaktor. Egentligen räcker 6GB ram för mig, men det är ju inte världens dyraste att skaffa 6GB till - fast jag ser ingen direkt användning i det än. Visst hade det gått fortare med ZFS och allt, men hitils fungerar det ju mycket snabbare än vad mina andra datorer klarar av att hantera så än så länge behöver jag det inte. Det blir nog senare när jag labbar med olika zones/brandz som det kanske blir mera nödvändigt.

Ha ha ha, alla verkar tro jag har massa porr bara för jag har över mycket diskutrymme

Permalänk
Avstängd

Vad har du för chassi? Måste vara rejält fett.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Puppetfreek

Ha ha ha, alla verkar tro jag har massa porr bara för jag har över mycket diskutrymme

Är väl många studenter häromkring, och de har inte fått uppleva hur det är att få pengar över varje månad.

Jag följer ditt expriment allafall, jag sitter med en maskin med 25st sata-diskar i och inväntar best practise. Just nu ligger maskinen bara i ett hörn.

Permalänk
Avstängd

Men jisses. Vad är det för ena monster ni har?! Allt över 10 diskar är ju helt sjukt. Sidde, jag tror officiella rekommendationer från ZFS utvecklarna, dvs best practices, säger att man bör ha flera raidz grupper med 6-8 diskar i varje grupp. Eftersom raidz2 är mer pålitligt än raidz1 så bör det betyda att en lämplig konfig kan vara raidz2 med 8 diskar i varje grupp. Dvs 3 x 8 diskar i raidz2 + 1 hot spare = 25 diskar. Hot spare brukar alltid rekommenderas i produktion och är tydligen viktigt säger sysadmins. Men om det vet du mera än mig, då du jobbar som sysadmin.

Och för Puppetfreek så kan en lämplig konfig vara 2 x 8 diskar i raidz2 och 4 st Hot Spare, eller 2 x 7 diskar i raidz2 + 6 diskar i raidz2 = 20 diskar.

Vad har du för hårdvara? Chassi? Vilket kontrollerkort? Du har läst den dära FreeBSD länken jag visade va? Med 25 diskar i flera raidz2 grupper lär du uppnå nästan 2GB/sek läshastighet med en ok IOPS, misstänker jag. Spännande. Du kanske kan testa en sån konfig som jag föreslår och posta lite bonnie++ benchmarks?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av saddam
Men jisses. Vad är det för ena monster ni har?! Allt över 10 diskar är ju helt sjukt. Sidde, jag tror officiella rekommendationer från ZFS utvecklarna, dvs best practices, säger att man bör ha flera raidz grupper med 6-8 diskar i varje grupp. Eftersom raidz2 är mer pålitligt än raidz1 så bör det betyda att en lämplig konfig kan vara raidz2 med 8 diskar i varje grupp. Dvs 3 x 8 diskar i raidz2 + 1 hot spare = 25 diskar. Hot spare brukar alltid rekommenderas i produktion och är tydligen viktigt säger sysadmins. Men om det vet du mera än mig, då du jobbar som sysadmin.

Och för Puppetfreek så kan en lämplig konfig vara 2 x 8 diskar i raidz2 och 4 st Hot Spare, eller 2 x 7 diskar i raidz2 + 6 diskar i raidz2 = 20 diskar.

Vad har du för hårdvara? Chassi? Vilket kontrollerkort? Du har läst den dära FreeBSD länken jag visade va? Med 25 diskar i flera raidz2 grupper lär du uppnå nästan 2GB/sek läshastighet med en ok IOPS, misstänker jag. Spännande. Du kanske kan testa en sån konfig som jag föreslår och posta lite bonnie++ benchmarks?

Rekommendationerna låter som vanligt i raid-världen. 3st Raid6 med hot spare är väl best practice för samma mängd disk om man ska fokusera på stora lagringsmängder där read är mer prioriterat än write.

Det är ett äldre Norco-chassi med 20st hot-swap-diskplatser och några interna diskplatser. Sitter ett adaptec-kort för diskarna i det men jag har en hel del Perc6i liggandes också samt sas-disk som jag funderar att göra någon mix mellan.

Jag funderar på Nexenta Stor som system nu när nya community edition kommer ut. Det jag måste köpa in till den maskinen är själva datorn, mobo, cpu osv. för de mobos jag har liggandes med c2d-cpuer har för få PCI-E-portar.
Och de Xeon-mobos och cpuer som sitter i andra servrar som jag skulle kunna plocka ur har alldeles för stora mobos.

Permalänk
Avstängd

Ok, så du har nåt separat Norco chassi med 20 diskar? Hur kopplar man chassit till själva datorn? Är det 20 SATA kablar från chassit in till datorn? Det låter inte rimligt. Kopplar man alla 20 diskar till en enda kabel, och den kabeln kopplar man till datorn? Hur funkar såna lite större lagringslösningar? Hur mycket kan ett sånt norco chassi kosta? Nån som vet?

Permalänk
Citat:

Ursprungligen inskrivet av saddam
Ok, så du har nåt separat Norco chassi med 20 diskar? Hur kopplar man chassit till själva datorn? Är det 20 SATA kablar från chassit in till datorn? Det låter inte rimligt. Kopplar man alla 20 diskar till en enda kabel, och den kabeln kopplar man till datorn? Hur funkar såna lite större lagringslösningar? Hur mycket kan ett sånt norco chassi kosta? Nån som vet?

Skulle tippa på att det är (eller en tidigare modell av) RPC-4020 som Sidde har. Det alltså ett helt "vanligt" (19"-rack 4U formfaktor dock) chassi där allt; disk, mobo, nätagg och så vidare; sitter i chassit. Det är ett väldigt attraktivt chassi! Speciellt, enligt mig, den nya med SAS-kontakter istället för SATAII kontakter (får man färre kablar i chassit).

Ska man ha chassit i sin garderob bör man, förutom standard modifikationen där man tejpar för alla hål för att förbättra luftflödet också, dock byta ut fläktarna till 120 mm. De som följer med är inte kända för att vara tysta av sig.

Visa signatur

Permalänk

Ha ha ha, yes, jag har också ett Norco för min nya server Jag valde däremot att gå med den gamla lösningen för jag har hört att den nya har lite sämre luftflöde + den har stöd för 20x3.5" + 2x2.5", men medan det äldre har 20x3.5" + 2x3.5" Och jag tycker inte de låter speciellt mycket, om man jämför med allt annat skit som står och går. Jämför jag med mina gamla SAN som överröstar min dammsugare så är allt ljudlöst

Fast min endra filserver har jag faktiskt ett gammalt chieftec JS-1500 och några 4-in-3 så där har jag ändå lyckats få in 20 diskar där med

Det jag hade önskat vore ett thumper-liknande lösning fast endast som ett DAS. Det hade varit schyst!

Tanken är väl att flytta över alla datorer som agerar server åt något till ett rack, så jag blir av med allt och får det samlat i en och samma plats. Men det får bli ett senare projekt

Permalänk
Avstängd

Puppetfreek, hur kopplar du alla diskar till datorn? Med 20 lösa sata kablar?

Eftersom du vill köra ett enda stort raid med alla dina diskar, har du funderat på raidz3 istället för raidz2?

Permalänk

Yes, 20 lösa satakablar Fungerar helt okey. Bara bunta ihop med buntband 4 om 4, så är det okey. Fördelen är att det är billigt och fungerar och finns i 1m längder för billig peng. Jag litar inte riktigt på interna kablar - minns ni PATA-kablarna som torkade och gick sönder? antar liknande kanske händer sata så kör rätt billiga nu (köpte dyra, men de var så stela och fungerar faktiskt sämre än andra).

Mmm, jag har funderat på raidz3. Men sannolikheten är väldigt liten att det kommer behövas.

Jag kör nu på den andra burken:8x500@raid5 + 8x1TB@raid5. Har haft den igång i....2 år, och hitils har inte en enda disk pajat (tvi tvi tvi?). Men när det börjar närma sig 3 år, så blir det dags att byta diskarna ändå så

Permalänk

På tal om massvis med disk, min lilla 8*1.5 TB raidz2 zpool börjar närma sig fullt, och i och med att jag snart flyttar hemifrån till en lägenhet med 100 Mbit/s, så börjar det bli dags att tänka på att uppgradera systemet lite. Jag bytte ut från 4*1 TB + 4*0.5 TB till nuvarande konfiguration för ungefär ett halvår sedan så det känns inte helt värt och ekonomisk riktigt att byta ut alla åtta diskarna till 2 TB diskar istället. Det jag kollar på nu är om det finns något vettigt extern chassi som kan tänkas rymma åtta stycken 3.5" diskar. Till ett vettigt pris då.

Så är det någon som känner till något extern chassi för åtta stycken 3.5" diskar till ett humant pris. Jag är student och kommer som sagt snart att flytta hemifrån så jag har tyvärr inte möjlighet att ösa ut pengar på hårdvara som Sidde och Puppetfreek (;)).

Visa signatur

Permalänk

Ptja, är du händig kan du lätt fixa det själv - beroende vad du har för krav på hastighet. Finns ju adapter som konverterar SATA -> eSATA. Så tryck in allt i ett chassi, koppla en nätagg som du får fixa så det går igång utan modekort. Finns också "SATA-hubbar" så kan du ha två sådana i + två SATA->eSATA. Eller så skaffar du bara en billig atom och så har du löst det mesta redan

Permalänk
Medlem

Rykten säger att Opensolaris 2010.03 inte kommer att hinna släppas i Mars månad. Man väntar på att b136 ska bli färdig först för att få fixat vissa buggar i b134. Så det kan ju ta ett par veckor till...

Källa: http://distrowatch.com/weekly.php?issue=20100329#news

Permalänk
Avstängd