Hårdvaruraid vs ZFS, på hemmabygge?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av saddam
Enligt mina erfarenheter så blir det krångel. Man kan mounta NTFS och ext3, men det har strulat för mig. T.ex. när jag mountade NTFS så fick jag typ 2MB/sek. Men det finns folk som det gått bra för.

Det problemfriaste är kanske att stoppa in diskarna i en annan dator, via USB(?) och föra över via samba eller nåt sånt. När man installerar OpenSolaris, så kommer den atuomatiskt detektera alla Windows maskiner och sätta upp samba åt dig. Så det är bara att dubbelklicka på "nätverkshanteraren" så kommer du åt de andra Windows maskinerna.

OpenSolaris kan läsa FAT32, så om du kan skapa en FAT32 partition och flytta över datat lite i taget, så kan det funka.

Då skippar jag nog det, är på tok för mycket jobb att flytta runt alla diskar och kontrollerkort. FAT32 är inget alternativ tyvärr då många filer är större än 4GiB. Kanske provar live cdn lite bara... Men tack för svaret

Permalänk
Medlem

Dåså, har jag installerat+uppdaterat, valde att lägga OSet i en partition isf hela disken, sa' 9GB.

5. Resten av disken ca. 160GB vill jag ha som ZFS datapartition, hur görs detta?

med format>fdisk har jag skapat en partition med resten av disken
men den får aldrig nån beteckning så den kan refereras utanför fdisk????

6. Startar FireFox - händer ingenting, säger att den startar men poppar aldrig upp på skärmen, fishy. Kan läsa email med Thunderbird. Hur felsöker/fixar man detta?

Permalänk
Medlem

Vad gör jag för fel när jag försöker göra en utdelning via iSCSI i opensolaris 2008.11?
ronny@filserver:/tank/volumes# zfs create -V 256G tank/volumes/test
ronny@filserver:/tank/volumes# zfs set shareiscsi=on tank/volumes/test
cannot share 'tank/volumes/test': iscsitgtd failed request to share
ronny@filserver:/tank/volumes# iscsitadm list target
bash: iscsitadm: command not found
ronny@filserver:/tank/volumes# svcadm enable svc:/system/iscsitgt:default
svcadm: Pattern 'svc:/system/iscsitgt:default' doesn't match any instances
ronny@filserver:/tank/volumes#

Permalänk

Har du installerat iSCSI paketen? Eftersom den inte hittar iscsitadm verkar det nästan inte så?

Visa signatur

on the internet since 1993
[ Geek - Dad - Programmer - RC enthusiast - Technology evangelist ]

Basically, you’re the guy who survived the shipwreck because you had a lifeboat, and now you’re standing on the shore telling the people still drowning that the ocean isn’t that bad.

Permalänk
Medlem

Nej jag hade nog inte det.
Jag har nu installerat paketen SUNWiscsi och WUNWiscsitgt.
Startade om servern och sedan försökte jag igen:

ronny@filserver:~# zfs destroy tank/volumes/test
ronny@filserver:~# zfs create -V 256G tank/volumes/test
ronny@filserver:~# zfs set shareiscsi=on tank/volumes/test
cannot share 'tank/volumes/test': iscsitgtd failed request to share
ronny@filserver:~# iscsitadm list target
Target: tank/volumes/test
iSCSI Name: iqn.1986-03.com.sun:02:c6825628-7d36-ea36-a69f-be952c6fb6d3
Connections: 0
ronny@filserver:~# zfs destroy tank/volumes/test
ronny@filserver:~# iscsitadm list target
ronny@filserver:~# zfs create -V 256G tank/volumes/test
ronny@filserver:~# zfs set shareiscsi=on tank/volumes/test
ronny@filserver:~# iscsitadm list target
Target: tank/volumes/test
iSCSI Name: iqn.1986-03.com.sun:02:82168ca3-609a-cb26-f42b-d475cfe59014
Connections: 0

Fick alltså felmeddelande första gången men den skapade ändå en utdelning. Tog bort volymen och gjorde om det och nu gick det utan felmeddelanden. Nu får jag väl testa ansluta via iscsi...

Permalänk
Avstängd

jookeer

En fråga, varför vill du ha två olika partitioner på din systemdisk? De flesta rekommenderar en enda stor. ZFS funkar allra bäst om hela disken är avdelad till ZFS. Sen skapar du flera olika filsystem, dvs partitioner. OpenSolaris kommer att få en egen filsystem. Likaså varje användare etc. Och partitionerna raderas och skapas på 1 sek. Ingen formatering. Man kan lägga snapshots på varje partition. Det är ej möjligt att lägga snapshots på en katalog. Jag tycker starkt att du ska installera om och låta ZFS ta hand om hela disken eftersom då har den total kontroll och funkar bäst. ZFS är inte som andra filsystem och man måste lära om.

Angående att firefox inte funkar, det låter skumt. Vad får du för felmsg om du startar det från kommandprompten? Ställ dig i rätt katalog och skriv:
$ ./firefox eller vad binären nu heter
Jag har faktiskt aldrig provat OpenSolaris, så jag vet inte var binären ligger.

Ronnylov,
Kan vi oxå få ansluta oss och testa lite? Funkar det över nätet? Någon som får installera ett OS och boota över nätet? Funkar det?

Permalänk
Medlem

Över internet lär det ju inte gå snabbare än mitt bredband på 2 Mbit/s och dessutom bör man köra VPN om man ska köra iSCSI över internet.

I alla fall så går det något långsammare än CIFS för mig när jag kör iSCSI mot Windows XP klienten. Hjälpte inte att göra ändringar i windowsregistret, jag märkte ingen skillnad. Men annars är det ju fräckt att det funkar som en lokal hårddisk.

EDIT: Även i Vista är iSCSI långsammare än CIFS för mig. Särskilt vid överföringar från servern till klienten där det bara går runt 25 MB/s och sisådär 60 MB/s till servern. Hjälper inte med registerändringen i Vista heller. Kanske är något som ska tweakas i OpenSolaris-servern istället?

Permalänk
Medlem

5. Vem 17 offrar en HEL disk på enbart OS? I alla tider har jag alltid haft en ren egen partition till BARA systemet. Brukar räcka med 10GB till XP och OS klarar sig på samma. Till och från kör jag imagebackup på mina systempartitioner (Win) över nätet och vill absolut inte släpa med mig kopiösa mängder data. Har aldrig tyckt det är vettigt att lägga in data i systempartitionen.

Dagens övningar har visat att OS använder begreppet "slice" (s0...sn) som påminner om partitionsbegreppet men ändå inte. fdisk skapar PC BIOS partitioner (p0...pn) som tydligen inte kan nyttjas av ZFS utan är tänkt som tex installation av andra operativsystem.

Så här får jag tänka om och lämna partitionsbegreppet åt sidan och jobba med 'slice' i stället. Planen är att ta ner storleken på heffaklumpslicen (OS) till rimlig storlek och skapa en ny av resten. OS klarar ALLT så att stycka upp fysiska diskar i 'slajsar' är väl en baggis.

Hur nu ominstallerat och det enda man kan välja är att lägga OS på en partition, som man kan ange storleken på, eller HELA disken, vilket jag gjorde. 0 eller 1.

Därefter in i format>partition>print
(här använder man begreppet 'partition' vilket är fel, skall heta 'slice')

varvid jag får upp 10 numrerade (0-9) rader, bla root, boot och backup. Med kommandot modify kan jag sätta ner root från 190GB till 9GB. Försöker jag göra detsamma med 'backup' SÅ GÅR INTE DET, troligen för att den är låst. Suck!

Hur gör ni?

Permalänk
Avstängd

Ronnylov,
Jag vet inte hur man ska få ut mer hastighet över iSCSI, jag har aldrig provat det förr. Hur fungerade iSCSI i Windows klienten? Enkel setup?

Så av dina undersökningar så verkar det som man bör köra CIFS. 90MB/sek över 1Gbps NIC får väl anses som ganska nära vad som är fysiskt möjligt att trycka igenom? Jaja, då vet vi att CIFS går snabbast. Tack för den informationen. Iofs kanske det är möjligt att tweaka men generellt så avråds tweakningar i Solaris. Det ska vara så enkelt som möjligt, och helst bara funka, är tanken. T.ex. kompilerar man inte om kärnan i Solaris. Istället sätter man lite parametrar i... /etc/system tror jag. Det är enklare än att kompilera om hela kärnan. T.ex. kan du byta ut schemaläggare under drift om du vill anpassa Solaris maskinen för rent server arbete. Solaris har fått en nyskriven TCP/IP stack (Fire engine) som tydligen ska vara hysteriskt snabb. Snabbast på marknaden, typ. Så ska man skyffla mycket data så är man i hamn.

Jookeer,
När det gäller ZFS så rekommenderas att den får tillgång till hela disken själv. Det blir allra bäst så. Och helst inga hw raid kort eller nåt sånt. ZFS och disken, inget annat däremellan, typ.

Sen skapar du olika filsystem för dina syften. Det är alltså mindre bra att dela upp disken i olika delar och installera OS i en del och annat i en annan del. Det är inte så man arbetar med ZFS. Man gör olika filsystem istället. OS får ett filsystem. Varje användare får ett varsitt filsystem. etc.

Det rekommenderas starkt att inte dela upp disken i olika delar. Bättre skapa olika filsystem istället. Det är så ZFS är tänkt att funka. Gör du annorlunda så får du inte en optimal lösning. Det är typ som om du stoppar in HW raid kort och sånt. Det blir inte lika bra som det skulle kunna vara.

Angående slices, det låter lite märkligt. Gamla filsystemet UFS har slices. Där slice nr 2 betecknar hela disken. Så om du gör en backup på slice nr 2, så backuppar du hela disken.

ZFS har inga slices. Är du säker på att du inte installerat UFS istället för ZFS? Logga in som root och skriv:
# zpool status
Vad blir utskriften?

Permalänk
Medlem

5. OK - helt annorlunda tänk än Win. Snarar lättare att förstå om man inte tidigare blivit hjärntvättad av M$. Konstigt att ingen på alla dessa bloggar etc sagt det, troligen har dom inte jobbat med Win tidigare.

Slicebegreppet kom in på en websida man refererade till (tappat bort den just nu) hur ZFS namnsätter sina device, tex c0d0s0, där s=slice - kan vara p oxå för PC BIOS partition. De här beteckningssättet är inget ZFS hittat på själva utan man har ärvt det från Unix.

Så nu installerar jag om allt igen, för 5:e ggn, kommer att få en rpool för systemet. Om jag nu vill använda disken oxå till annat görs detta genom att skapa en ny pool:

zpool create tank c0d0s0 - skapar en tom pool med namnet tank på devicet c0d0s0

klart?

6. om disken där tank-poolen ligger blir full - kan man utöka med en ny disk vilket verkar farligt eftersom det blir en JBOD då ju, kraschar en förlorar man allt även på de andra friska diskarna? Bättre då med en pool per disk för att minimera förlusterna, eller?

Permalänk
Avstängd

5. Ja, gör ZFS av hela disken. Enda gången du inte gör ZFS av hela disken, är om du vill dual boota, och installera t.ex. Windows.

När du har installerat klart OpenSolaris, så kommer hela disken vara ZFS. Och du kommer ha ett filsystem som själva OSet ligger på. Sen kan du skapa filsystem fritt, om du vill. T.ex. en till varje user. Jag har inte brytt mig om att göra det. Alla users ligger på samma filsystem som själva OSet. Du skapar filsystem med zfs create.

Om du vill skapa en ny zpool som heter tank så gör du så, ja:
# zpool create tank c0d0s0
Men i detta fall har du ingen redundans, pga single disk. Så ZFS kan detektera felen, men inte alltid reparera dem.

Bättre använda flera diskar och göra mirror eller raidz1 (en disk kan krascha - motsvarar RAID 5) eller raidz2 (två diskar kan krascha - motsvarar RAID 6):
# zpool create tank raidz1 c0d0s0 c0d1s0 c0d3s0
eller nåt sånt. Läs på om själva zpool kommandot innan du kör igång. Och här finns mera info om att skapa ZFS pooler, som du bör läsa:
http://breden.org.uk/2008/03/08/home-fileserver-zfs-setup/

6. Jag förstår inte frågan riktigt. Du har en zpool för ditt OS, som antagligen heter rpool. Det är systemdisken. rpool består av en enda disk, så om den kraschar så är det fatalt. Det är därför som Ronnylov gjorde en mirror utav rpool.

Sen kan du skapa en zpool som består av flera diskar, dvs ZFS raid, enligt ovan. Den kan då heta tank.

Själv har jag en enda disk för systemet, där kör jag dual boot med WinXP. Så hela disken är inte ZFS. Bara halva. Sen har jag en ZFS raid med 5 st terabyte diskar, som heter tank.

Permalänk
Medlem

6. Tycker jag gör precis som man skall enligt manualen och bloggarna.

format för att se vilka devicer man har och den enda jag har heter c0d0

Försökte med zpool create tank c0d0 men fick nåt om att rpool redan finns men vadå du kan väl ha flera pooler på samma disk? Man vill ju inte pumpa in data i systemets egen rpool?

Varför heter den bara c0d0 isf c0d0s0 i format?

Min plan är:

1. Sätta upp OS + data pool på EN och SAMMA disk
2. Flytta filer från Win över GBLAN till data poolen mha CIFS
3. Kolla in prestandan
4. Konvertera NTFS data diskar en och en (om det går) till ZFS-format
5. Poola in dessa som singlediskar. Kraschar en gör det inget. Därför viktigt att poolerna inte spannar över på andra diskar.

Sedan efter det tänkte jag RAIDa ett antal RAID5 chipsetarrayer till ZFS Raidz.

Så jag försöker ta ett steg i taget. Mitt läge är alltså att jag har en drös med överfyllda datadiskar i single och i RAID5 som skall över till ZFS singlediskar och RAIDz.

Nizzarna på bloggarna gör det enkelt för sig med ett knippe TOMMA diskar och kör på med RAIDz redan från start - det blir fan så mycket enklare då ju.

Permalänk
Medlem

Klientmässigt var det rätt enkelt med iSCSI i windows. För XP var man tvungen att ladda ner programmet Microsoft iSCSI software initiator och på en flik ange adressen till servern och på en annan flik ansluta till det listade målet. Fanns även en kryssruta för autoanslutning vid uppstart. Sedan fick man gå in i diskhantering, initiera disken och formatera (lämpligtvis med snabbformatering). I Vista var det ännu enklare för där fanns redan iSCSI initieraren på kontrollpanelen, följer altså med i Vista men principen var densamma i vista.

Har även testat i Linux nu och fick även här liknande hastigheter som med CIFS (45 MB/s till servern, 30 MB/s från servern), kanske aningen långsammare. Jag fick installera open-scsi och sedan pilla lite med kommandon innan jag kunde montera NTFS-disken över iSCSI som jag tidigare hade formaterat i Windows. Verkar som det går att knofigurera så att det autoansluter vid uppstart även i Linux.

Jag kommer nog att skippa iSCSI på filservern tror jag och försöka köra NFS och CIFS istället.

Permalänk

Vilken hastighet får du på samma FS om du delar dem med CIFS iställetför iSCSI? Fortfarande uppåt 90MBps? Hur ligger det till med NFS? Liknande hastighet?

@saddam: Varför inte köra en HW RAID kontroller mellan diskarna och ZFS? Det borde ju ge det bästa av båda världar - ZFS står för säkerheten och HW kontroller'n står för prestandan. ZFS är ju fortfarande "bara" ett filsystem typ FAT, UFS, NTFS etc etc - den måste ju kunna fungera lika bra på alla typers diskar (dvs. även en HW RAID6 array - som ZFS kommer se som en enda fysisk disk)?

In other news, rotat runt lite mer ang. virtualizering och det verkar som om Xen stödjer Intel's VT-d fullt ut vilket borde betyda att jag kan installera Linux som "host" och dela ut RAID kontroller'n till en gäst partition som då kommer se den som "sin egen". Synd bara att jag måste dra ned server'n för att testa

Visa signatur

on the internet since 1993
[ Geek - Dad - Programmer - RC enthusiast - Technology evangelist ]

Basically, you’re the guy who survived the shipwreck because you had a lifeboat, and now you’re standing on the shore telling the people still drowning that the ocean isn’t that bad.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av jookeer
6. Tycker jag gör precis som man skall enligt manualen och bloggarna.

format för att se vilka devicer man har och den enda jag har heter c0d0

Försökte med zpool create tank c0d0 men fick nåt om att rpool redan finns men vadå du kan väl ha flera pooler på samma disk? Man vill ju inte pumpa in data i systemets egen rpool?

Du bör inte ha flera pooler på en disk. Du kan splitta upp disken i flera delar, och köra ZFS på varje del dvs göra en pool på varje del, men det rekommenderas inte. Bättre att köra ZFS på en hel disk.

Du kan pumpa in data till systemdisken. Själva OSet har ett eget filsystem på systemdisken. Skapa nya filsystem (dvs partitioner) om du vill pumpa in data, så datat hamnar på en egen partition. Det är inte bra att blanda OS och data. Gör nåt i stil med:
rpool# zfs create minaDataHamnarIdettaFilsystemTjoho
Sen tankar du alla data till /rpool/minaDataHamnarIdettaFilsystemTjoho

Citat:

Ursprungligen inskrivet av jookeer
Varför heter den bara c0d0 isf c0d0s0 i format?

Jag tror, att det har att göra med att sista "s0" betyder slice 0. Men eftersom du nu inte har några slices (hela din disk är en enda stor ZFS) så blir det bara c0d0. Typ. Kanske.

Citat:

Ursprungligen inskrivet av jookeer
Min plan är:

1. Sätta upp OS + data pool på EN och SAMMA disk
2. Flytta filer från Win över GBLAN till data poolen mha CIFS
3. Kolla in prestandan
4. Konvertera NTFS data diskar en och en (om det går) till ZFS-format
5. Poola in dessa som singlediskar. Kraschar en gör det inget. Därför viktigt att poolerna inte spannar över på andra diskar.

Jag skulle inte göra så här.

1) 2) Se mitt svar högst upp.

4) Jag tror inte det är möjligt att konvertera NTFS diskar till ZFS. Om det nu vore möjligt, skulle du göra en zpool av en enda disk iom med denna procedur.

5) Inte bra. Om en disk kraschar, så har du förlorat alla data på den disken. Om du gör singlediskar av allting, så får du inget raid. Du har bara ett gäng separata diskar som alla arbetar oberoende av varandra. Typ, du har en C: drive, en D: drive och en annan E: drive. Det är inte bra. Kraschar C: driven så har du förlorat alla dina data på C:. Slå ihop alla tre istället till en enda raid.

Citat:

Ursprungligen inskrivet av jookeer
Sedan efter det tänkte jag RAIDa ett antal RAID5 chipsetarrayer till ZFS Raidz.

Så jag försöker ta ett steg i taget. Mitt läge är alltså att jag har en drös med överfyllda datadiskar i single och i RAID5 som skall över till ZFS singlediskar och RAIDz.

Nizzarna på bloggarna gör det enkelt för sig med ett knippe TOMMA diskar och kör på med RAIDz redan från start - det blir fan så mycket enklare då ju.

Det jag skulle göra, som blir allra enklast i långa loppet, är nog att göra som Nizzarna. Trixa och göra specialknep och sånt, kan strula riktigt ordentligt om man glömt en detalj. Detta är inte Windows, dvs det finns inte alltså massa räddningsprogram att ladda ned. Har datat förlorats, så har det förlorats. Typ. (Det finns antagligen räddningsprogram men det ska man inte räkna med, de kanske kostar multum och så).

Istället; släng upp en ZFS server. Koppla in ett gäng hårddiskar och gör en zpool av allting. Nu har du ZFS raid. Dra igång CIFS på ZFS servern och koppla upp dig mot datorn med dina NTFS disk och kopiera via nätverket. Absolut felsäkrast. Strular något, så har du kvar dina NTFS diskar.

Om det är så att du vill konvertera alla dina NTFS diskar till ZFS så blir det mycket struligare. Då måste du mellanlagra alla dina data på någon disk
A) Låna/köp ett gäng diskar och kopiera alla dina NTFS data dit. Kanske en enda 1.5TB disk räcker?
B) Bygg din ZFS server och gör ett enda ZFS raid (dvs zpool) av alla dina NTFS diskar.
C) Kopiera alla dina data från A) till ZFS raidet. Klart.

Det var så här jag gjorde och det är det allra bästa. Det jobbiga är att få låna alla diskar för mellanlagringen dock. Men kom ihåg, skiter det sig, så kan det skita sig riktigt rejält. Då kanske du blir av med alla dina data utan att kunna få tillbaka dem. Var försiktig. Gör inga komplexa lösningar, utan håll det simpelt.

Om du mellanlagrar alla data, så har du backuper och skiter sig ZFS servern pga nåt fel, så gör det inget. Du har dina backupper kvar. Detta är den säkraste lösningen. Sen när du fått alla dina data till ZFS servern, och allt funkar, så kan du göra dig av med backup diskarna. Men eftersom detta är nytt för dig, så tycker jag definitivt att du ska köra med backup diskar. Det gjorde jag, och det kändes tryggt.

Ronnylov,
Kan du inte prova köra iSCSI över internet och se hur det går? Det vore lite coolt? Då har du en ZFS partition hemma, som du alltid kan koppla upp dig mot, över internet? Kan vara bra att ha ibland om du är i skolan, hos kompis, etc? Du kanske kan ha filmer/MP3 där, och streama över nätet? Docs?

EDIT: emigrating12
Jag vet inte riktigt alla detaljer till varför det är bättre att inte blanda in ett HW raid till ZFS. Men det är nåt i stil med att ZFS måste ha total kontroll över allting själv, för att kunna göra sin magi. Och om du blandar in HW raid, så vet inte riktigt ZFS vad som händer mellan HW raidet och disken. Tror jag. Eller nåt sånt. Om HW raidet schabblar bort något (mot all förmodan) så kan inte ZFS komma in och rädda, för den vet inte riktigt vad som hänt. Typ.

Och om du blandar in HW raid och ZFS, så kommer fortfarande CPU beräkna checksummor och allting, så då gör man dubbla kontroller hela tiden. Ett HW raid är ju mjukvara som gör dubbelkontroller och reparerar och sånt, som kör på en CPU på kontroller kortet. ZFS är samma sak, men det kör på vanliga CPUn. Plus att det är lite mera omfattande och har flera funktioner. Så poängen med ZFS är att den gör av med alla steg emellan CPUn och disken. Inga kontroller kort eller nåt sånt. De bara stör ZFS i dess arbete. SUNs nya storageservrar, som säljs för dyra penningar, har inga HW raid alls. De kör ZFS rakt ut. I såna dyra maskiner spelar inte kostnaden för ett HW raid roll. Men SUN väljer ändå att inte stoppa in HW raid. Trots att Enterprise kunder har råd att betala för ett sånt kort. Men SUN vill inte ha ett sånt kort i maskinen. Den bara stör.

Men det finns folk som kör HW raid och ZFS, och de är nöjda. Jag tror dock inte det är vad som rekommenderas. Jag får intrycket att det är såna som inte riktigt är vana vid ZFS än. De som är vana vid ZFS kör utan HW raid kort. Det blir bäst så.

Bättre då att slänga upp en liten testserver med 3-4 sata diskar och experimentera utan HW raid, tror jag.

Permalänk
Medlem

Tror inte någon förklarat på ett vettigt sätt hur begreppen hänger ihop hierarktiskt.

Rörigt som fan.

Diskar, partitioner, slicar, pooler, filsystem, Raidz. Jag har hyfsad koll på Win i detta avseende men i ZFS-världen är ALLT upp-och-ner.

En pool kan innefatta flera diskar?
Bara en pool/disk?
En pool kan ha flera filsystem?
En pool kan vara medlem i en Raidz?

Överst i hierarkin har man en disk med minst en partition, kanske fler för dual boot.
I denna partition definerar man en/flera pooler som var och en har ett eller flera ZFS-filsystem?
Vill man sen expandera sin pool till andra diskar kan man det?
Se'n skaffar man x-diskar till och kör Raidz1 (tex) - antingen poolar man upp dem med nya pooler och filsystem eller så låter man redan existerande pooler och dess filsystem få ta del av denna Raidz?

Ändå sägs det att ZFS är enkelt och rättframt, men tittar man i manualerna så är där tonvis med kommandoswitchar, subkommandon som ingen på bloggarna eller websidorna förklarar/begriper/använder. Så länga allt funkar kan det möjligen vara hanterbart men så snart det strular är jag tveksam till att hemmanvändare orkan/kan/vill gräva i alla denna kommandofascism.

Hoppas jag har fel?!

Chipset/mjukRAID är betydligt enklare än ZFS för hemmaanvändare - vågar jag påstå. Man kopplar in diskarn, anger i BIOS vilka diskar och RAID-nivå man vill köra.
RAIDet partioneras och formateras - KLART! No big deal. Kan det bli enklare?

Tappas filstrukteren/datat finns verktyg för att återhämta det mesta.

Säga vad man vill om M$, dom har kanske inte bästa teknologin på alla områden, vem har det, inget är gratis från M$, men dom har helt överlägset (tyvärr) 'användarvänliga' gränssnitt mot användaren. Under skalet är M$ produkter säkert lika komplexa som OpenSolaris men vi slipper se skiten. Ursäkta mitt, gnäll, men skall vi nånsin bryta M$'s monopol vill det till att vi som provar alternativen får gehör för våra synpunkter, vilket blir svårt därför att OpenSoftware samhället drivs på icke-komersiell grund och ingen lägger en krona för att driva det framåt avseende användarvänligheten. Till det krävs kopiös marknadsföring a la M$ och ett helt nytt tänkande. Inser nu att denna tråd inte heller kan råda bot på detta, så jag slutar gnälla.

Var hittar jag info om hierarkin?

Permalänk
Citat:

Ursprungligen inskrivet av saddam
EDIT: emigrating12
Jag vet inte riktigt alla detaljer till varför det är bättre att inte blanda in ett HW raid till ZFS. Men det är nåt i stil med att ZFS måste ha total kontroll över allting själv, för att kunna göra sin magi. Och om du blandar in HW raid, så vet inte riktigt ZFS vad som händer mellan HW raidet och disken. Tror jag. Eller nåt sånt. Om HW raidet schabblar bort något (mot all förmodan) så kan inte ZFS komma in och rädda, för den vet inte riktigt vad som hänt. Typ.

Och om du blandar in HW raid och ZFS, så kommer fortfarande CPU beräkna checksummor och allting, så då gör man dubbla kontroller hela tiden. Ett HW raid är ju mjukvara som gör dubbelkontroller och reparerar och sånt, som kör på en CPU på kontroller kortet. ZFS är samma sak, men det kör på vanliga CPUn. Plus att det är lite mera omfattande och har flera funktioner. Så poängen med ZFS är att den gör av med alla steg emellan CPUn och disken. Inga kontroller kort eller nåt sånt. De bara stör ZFS i dess arbete. SUNs nya storageservrar, som säljs för dyra penningar, har inga HW raid alls. De kör ZFS rakt ut. I såna dyra maskiner spelar inte kostnaden för ett HW raid roll. Men SUN väljer ändå att inte stoppa in HW raid. Trots att Enterprise kunder har råd att betala för ett sånt kort. Men SUN vill inte ha ett sånt kort i maskinen. Den bara stör.

Men det finns folk som kör HW raid och ZFS, och de är nöjda. Jag tror dock inte det är vad som rekommenderas. Jag får intrycket att det är såna som inte riktigt är vana vid ZFS än. De som är vana vid ZFS kör utan HW raid kort. Det blir bäst så.

Bättre då att slänga upp en liten testserver med 3-4 sata diskar och experimentera utan HW raid, tror jag.

Hmm, det är här jag inte helt följer med.

ZFS är, enlig definition, ett filsystem - right? Precis såsom AFS, NTFS, UFS eller WinFS? Det är till för att organisera/läsa/skriva filer till ett lagringsmedium såsom en hårddisk eller en DVD - i praktiken agerar det som en receptionist i ett större företag med många avdelningar (kataloger) och anställda (filer) - dvs en "databas" över det som är lagrat på mediet ifråga.

Det jag vill fram till är att man behöver inte köra RAIDZ eller RAIDZ2 på ZFS - det är endast en möjlighet, precis som diskspanning är under NTFS, dock med bättre säkerhet [på ZFS] - men säkerheten kommer ju med ZFS i sig själv ock inte med redundansen som en Z eller Z2 array ger? eller har jag förstått detta helt fel?

Alltså, låt säga att jag installerar SunOS på en box med HW RAID - säg en RAID6 array på 8 x 1TB diskar (dvs 6TB plats). På denna boxen kör jag ZFS - så jag lägger till min 6TB "disk" som en non-redundant vdev som läggs in i en zpool. Färdigt. Jag har nu en 6TB vdev som jag kan lagra data på lite hur jag vill.

Om en (eller två) diskar i min array skulle fela kommer ZFS/Solaris aldrig märka av detta eftersom det sköts på HW level. Jag byter ut disken/diskarna och arrayen rekonstruerar sig helt transparent för operativsystemet. Iallafall, när operativsystemet ber ZFS att lagra en fil i min 6TB zpool så lagras den "the ZFS way", dvs. ZFS litar inte på den "underlaying" disken utan kollar innan, medans och efter [att data't är lagrat] att det korrekta data't blev skrivit. Samma händer när operativsystemet ber ZFS om att läsa en fil, ZFS kollar att data'n den läser är korrekt.

Ok, med mig so far? Då sparar jag (vill jag hoppas) en hel massa CPU cycler på server'n eftersom ren parity data beräknas/processeras av HW RAID processorn - ZFS tar endast hand om själva filsystemets read/write. Så samtidigt som jag kan ta del utan HW RAID's performance [och redundans] utan att det kostar mig CPU tid kan jag ta del av ZFS's säkerhet eftersom den ändå inte litar på disken [min array].

Det ser ju, på pappret, ut som en mycket bättre lösning om man (som jag) är oroad över ZFS's RAIDZ cpu/ram användning.

Eller har jag missförstått någonting? Kanske det inte är ZFS i sig du lovprisar, utan hellre ZFS's inbyggda RAID lösning - dvs RAIDZ och RAIDZ2?

In short; får man säkerheten som du har pratar om ifrån ZFS eller ifrån RAIDZ?

Redan nu börjar jag få huvudvärk och jag har inte engång installerat Solaris ännu (ska dock bli kul, har inte jobbat mycket i SunOS/Solaris sedan 93/94)
Enklare/bättre för en hemma användare? Heck no, det kan jag absolut inte hålla med om. Ge en "newbie" två datorer utan OS installerat. Båda med en systemdisk och 5 lagringsdiskar - den ena har dessa lagringsdiskar kopplat till ett HW kort. Jag ska slå vad om att i 100% av test tillfällena kommer HW RAID maskinen ha sin lagringsplats konfigurerad mycket fortare än den som behöver köra RAIDZ.

Men iallafall - interessant diskussion. Bara jag får lite mer tid ska jag få upp Solaris på denna boxen och testa lite iSCSI thruput.

Visa signatur

on the internet since 1993
[ Geek - Dad - Programmer - RC enthusiast - Technology evangelist ]

Basically, you’re the guy who survived the shipwreck because you had a lifeboat, and now you’re standing on the shore telling the people still drowning that the ocean isn’t that bad.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av emigrating12
Vilken hastighet får du på samma FS om du delar dem med CIFS iställetför iSCSI? Fortfarande uppåt 90MBps? Hur ligger det till med NFS? Liknande hastighet?

För iSCSI så delade jag ut en volym som jag sedan formaterade i NTFS. Jag tror inte jag kan dela ut samma sak via CIFS eftersom CIFS delar ut filsystem medans iSCSI delar ut volymer om jag fattat saken rätt. Men ett annat filsystem i ZFS på samma RAIDZ array ger ju ca 90 MB/s i båda riktningarna utdelat via CIFS om klienten var Windows Vista. iSCSI med Windows Vista klient verkar ge ungefär 70 MB/s när jag skickar filer till servern och knappt halva den hastigheten när jag hämtar filer från servern. Så av någon anledning är iSCSI långsammare i riktningen från servern till klientdatorerna.

Jag har tyvärr inte lyckats montera en NFS utdelning ännu. Får "permission denied" när jag försöker montera den i Linuxklienten. Jag får återkomma när jag fått kläm på hur man ska göra.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av jookeer
Tror inte någon förklarat på ett vettigt sätt hur begreppen hänger ihop hierarktiskt.

Rörigt som fan.

Diskar, partitioner, slicar, pooler, filsystem, Raidz. Jag har hyfsad koll på Win i detta avseende men i ZFS-världen är ALLT upp-och-ner.

En pool kan innefatta flera diskar?
Bara en pool/disk?
En pool kan ha flera filsystem?
En pool kan vara medlem i en Raidz?

Överst i hierarkin har man en disk med minst en partition, kanske fler för dual boot.
I denna partition definerar man en/flera pooler som var och en har ett eller flera ZFS-filsystem?
Vill man sen expandera sin pool till andra diskar kan man det?
Se'n skaffar man x-diskar till och kör Raidz1 (tex) - antingen poolar man upp dem med nya pooler och filsystem eller så låter man redan existerande pooler och dess filsystem få ta del av denna Raidz?

Ändå sägs det att ZFS är enkelt och rättframt, men tittar man i manualerna så är där tonvis med kommandoswitchar, subkommandon som ingen på bloggarna eller websidorna förklarar/begriper/använder. Så länga allt funkar kan det möjligen vara hanterbart men så snart det strular är jag tveksam till att hemmanvändare orkan/kan/vill gräva i alla denna kommandofascism.

Hoppas jag har fel?!

Chipset/mjukRAID är betydligt enklare än ZFS för hemmaanvändare - vågar jag påstå. Man kopplar in diskarn, anger i BIOS vilka diskar och RAID-nivå man vill köra.
RAIDet partioneras och formateras - KLART! No big deal. Kan det bli enklare?

Tappas filstrukteren/datat finns verktyg för att återhämta det mesta.

Säga vad man vill om M$, dom har kanske inte bästa teknologin på alla områden, vem har det, inget är gratis från M$, men dom har helt överlägset (tyvärr) 'användarvänliga' gränssnitt mot användaren. Under skalet är M$ produkter säkert lika komplexa som OpenSolaris men vi slipper se skiten. Ursäkta mitt, gnäll, men skall vi nånsin bryta M$'s monopol vill det till att vi som provar alternativen får gehör för våra synpunkter, vilket blir svårt därför att OpenSoftware samhället drivs på icke-komersiell grund och ingen lägger en krona för att driva det framåt avseende användarvänligheten. Till det krävs kopiös marknadsföring a la M$ och ett helt nytt tänkande. Inser nu att denna tråd inte heller kan råda bot på detta, så jag slutar gnälla.

Var hittar jag info om hierarkin?

Jag själv tycker ZFS är enkelt, men det kanske är för att jag är van vid det.

Först och främst, om du ska lägga alla dina värdefulla data på ZFS, så måste du läsa på. Mycket. Dina data är värdefulla, och om du ska lagra datat på ett annat OS, så bör man veta vad man gör. Vad händer om alla dina data förstörs? Då blir du inte glad? Du har lagt ned mycket tid och jobb på att anskaffa dina data. Då bör du lägga lite tid och jobb på att läsa på först om ZFS och OpenSolaris. Om du inte vill prova ZFS och Apple OS X istället.

Men det viktiga är att dina data är värdefulla. Du bör veta vad du gör innan du byter till ZFS. Skyll inte på mig om dina data förstörs. Om du inte riktigt har tid till att lära dig ZFS, så tycker jag du ska köra HW raid eller mjukraid istället. Dina data är ju så viktiga att du inte vill riskera dem, eller hur?

Jag tycker att du ska experimentera med ZFS ett bra tag innan du ger dig på att konvertera alla dina data. Om du ens ska göra det. Jag vill inte ha på mitt samvete att alla dina data förstörs. Det skulle inte kännas bra, varken för mig eller för dig.

Skaffa 2-3 diskar till OpenSolaris burken och experimentera med dem tills du kan ZFS. Det är det första. Senare kan du avgöra om ZFS är något för dig. Tänk om du kommer på att ZFS inte är något för dig, och du redan konverterat dina data? Då blir det inte kul. Lär dig ZFS först. Om du inte har 2-3 st 20GB diskar över, kanske du kan använda 2-3st USB minnesstickor istället. Eller i värsta fall kan du skapa 2-3 st datafiler ovanpå ZFS, som du kan låtsas vara diskar.

"Diskar, partitioner, slicar, pooler, filsystem, Raidz. Jag har hyfsad koll på Win i detta avseende men i ZFS-världen är ALLT upp-och-ner.

En pool kan innefatta flera diskar?
Bara en pool/disk?
En pool kan ha flera filsystem?
En pool kan vara medlem i en Raidz?"

Angående zpooler, raid, etc. Jag kan inte säga att jag har stenkoll på precis allting, men det är så här jag har uppfattat det. Och jag tror det är korrekt.

För det första, glöm bort slices. De existerar inte. Du har aldrig stött på det begreppet. (De kanske existerar nånstans djupt nere i ZFS hierarkin, men de behövs inte kännas till).

För det andra. En zpool är överst i hierarkin. En zpool är en pöl med data. Det motsvarar allt ditt RAM i burken. Antag att du har 4 st 1GB stickor. De tillsammans ger dig 4GB RAM. "Hur mycket RAM har du?" - 4GB. Men det består av 4 st 1GB stickor. Det är samma sak med zpool. "Hur stor är din zpool?" - 4TB. Men den består av 5 st TB diskar. Du har alltså raidat 5 st diskar, så du får ut 4TB lagringsutrymme. Ditt ZFS raid kan lagra 4TB. Du har ett raidz på 4TB.

Kvar att förklara är nu partitioner och filsystem.

Antag att du har en 4TB zpool nu. Hur ska du lagra dina data där? Ska du inte skapa några kataloger och sånt? För din zpool är helt tom. Det finns t.ex. inga kataloger eller data. Ska du lägga alla dina data i roten på zpool? Det är inte bra. Det är bättre att skapa kataloger. Fast ännu bättre är att skapa filsystem i din 4TB zpool.

Ett Windows raid, där du slagit ihop 3 st 100GB diskar, kommer att heta "C:" eller "D:". Så din "C:" kommer att vara 2 x 100GB = 200GB stor. Eftersom en hel disk går åt till felkorrigering i ett raid.

I ZFS funkar det inte så. Du har slagit ihop 3 st 100GB diskar, och du får en zpool som är 200GB. Den kommer inte heta "C:". Den kommer istället heta t.ex. "tank". Nu kan du skapa "C:" ovanpå tank. Du kan även skapa "D:" ovanpå tank. Du skapar alltså flera partitioner ovanpå tank. Typ:
/tank/C
/tank/D
och du kan kopiera data till /tank/C.

Fast i Unix så heter partitionerna aldrig C:. De kanske heter istället
/tank/video
/tank/musik

Och i Unix så heter det inte partitioner. Det heter filsystem. Så du kommer skapa flera filsystem ovanpå din tank, enligt ovan. Och i ZFS så ändras ett filsystem i storlek, beroende på hur mycket du stoppar in (om du vill). I Windows så är C: en fast storlek. I ZFS så måste inte /video ha en fast storlek. Den kan växa till en viss fördefinierad gräns. Den kan även krympa om du raderar data. En ZFS filsystem är nästan som ett directory, helt enkelt. Sen kan du skapa directories inuti ett filsystem. Typ:
/tank/video/hårdporr
/tank/video/mjukporr

Så du har ett ZFS raid, en zpool som heter tank. Du har ett filsystem (typ som partition C: ) som heter video. Du har flera kataloger/directories i video, där du kan lagra data.

Du kan förstås lagra data direkt ovanpå tank, men det är inte bra. Du kan även lagra data direkt i video, men det är bättre att skapa kataloger.

Du kan även dela upp en disk med fdisk i flera partitioner. Du kan ha en partition med OpenSolaris och en annan med Windows XP och dual boota. Så en partition är en hård uppdelning av en disk, den går från sector X till sector Y, den kan inte ändras i efterhand. (Nåja). Ett filsystem i ZFS är ungefär som en katalog, och bara ligger nånstans i tank, den har inte fasta gränser. I det gamla filssystemet som heter UFS är det inte alls så. Där är ett filsystem precis som C:, den har en fast storlek och går inte att ändra på i efterhand.

En zpool består av flera diskar. Så du har nu ett raid. Ett ZFS raid. Men du måste inte skapa en raid av olika diskar. Du kan istället skapa 3 st 10GB filer och sätta ihop dem till en enda zpool. Det är bra för att experimentera. Eller så kan du sätta ihop ett zpool av 3 st USB stickor. Men det bästa och enklaste är om du får tag på gamla diskar att experimentera med. Skapa zpool, förstöra den, skapa filsystem, etc.

Om du nu har en zpool av 3 st gamla diskar, så kan du även lägga till en grupp av diskar. Du kan lägga till 3 diskar till, så du har nu en zpool som innehåller 6 diskar. Varje grupp bör vara en egen raid.

Det finns även olika typer av ZFS raid. Antag att du har 4 st TB diskar. Då kan du göra ZFS raid av dem. Du kan göra raidz1, det betyder att en disk kan krascha utan att du tappar data. Motsvarar raid-5. Du kan även göra raidz2, det betyder att två diskar kan krascha utan att du tappar data. Motsvarar raid-6. Sen kan du spegla diskar, om du vill. Det passar för systemdisken.

Blev det lite klarare? Läs om "storage pools"
http://en.wikipedia.org/wiki/ZFS

http://www.sun.com/software/solaris/zfs_learning_center.jsp

emigrating12,
ZFS är inte bara ett filsystem. Det är en raid hanterare inbyggd. Traditionellt har du flera lager: Filsystem. Volymhanterare. Raid hanterare. etc? etc? Jag vet inte alla lager.

I ZFS har man tagit bort alla lager och har en enda monolitisk massa. Typ. Det betyder att ZFS har råkoll på allting ända ned till själva disken, och kan därför reparera fel som inte går annars. Finns det flera lager med vattentäta skott däremellan, så kan man inte reparera fel som sträcker sig över flera lager. Taskig förklaring, jag vet. Men läs denna för en bra förklaring, av chefsarkitekten bakom ZFS:
http://blogs.sun.com/bonwick/entry/rampant_layering_violation

Permalänk

Hmm, jag ser att evangelisterna säger att det tar bort behovet för en HW RAID kontroller, men ingenstans ser jag att det kommer ge några som helst problem att behålla den.

Det är ju även de som säger att en HW kontroller fortfarande är att föredra då det ger bättre "real-life" write prestanda - vilket faktiskt är något jag bryr mig lite om.

Men iallafall, jag har fortfarande inte hittat någon anledning till varför man inte skulle använda en HW RAID emellan ZFS och diskarna - som jag sa ovanför kommer ju ZFS fortfarande märka av felet eftersom, for all intents and purposes, allt ZFS ser är ju en jädrans stor disk.

Ok, låt oss säga att RAID Write Hole är ett stort problem, så vid varannan write kommer ett fel uppstå pga HW RAID - det enda detta vill resultera i är en försämring av prestanda eftersom ZFS kommer "reparera" det som är felaktigt lagrat?

Om det är en fysisk disk eller en RAID array's virtuella disk som ger fel spelar väl ingen roll eftersom i slutändan är det "fel" och ZFS måste reparera det.

Citat:

I ZFS funkar det inte så. Du har slagit ihop 3 st 100GB diskar, och du får en zpool som är 200GB. Den kommer inte heta "C:". Den kommer istället heta t.ex. "tank". Nu kan du skapa "C:" ovanpå tank. Du kan även skapa "D:" ovanpå tank. Du skapar alltså flera partitioner ovanpå tank. Typ:
/tank/C
/tank/D
och du kan kopiera data till /tank/C.

Mitt ena HW kort fungerar precis på det här sättet - jag lägger till en massa diskar i en "pool", denna poolen är osynlig för operativsystemet och jag är tvungen att skapa en (eller flera - upptill 64) virtuell disk(ar) på denna poolen. Dessa virtuella diskar ses då av OSet och kan användas till lagring och/eller partitionera efter smak. Den enda skillnaden är att jag kan lägga till/ta bort diskar i min pool när jag vill och samtidigt förändra RAID Level och/eller förminska/utöka faktisk lagringsplats utan att behöva tänka på redundans - det hanteras automatiskt.

Visa signatur

on the internet since 1993
[ Geek - Dad - Programmer - RC enthusiast - Technology evangelist ]

Basically, you’re the guy who survived the shipwreck because you had a lifeboat, and now you’re standing on the shore telling the people still drowning that the ocean isn’t that bad.

Permalänk
Medlem

Finns en anledning att känna till slices i alla fall. Filsystemet på boot-disken i opensolaris (alltså rpool) behöver installeras i en slice och normalt täcker denna slice hela diskutrymmet såvida man inte dualbootar med annat operativsystem. Zpool rpool hamnar då inuti denna slice (som är samma sak som vad som tradiotionellt sätt kallas partition). Det är väl något tekniskt om hur en PC funkar med bootning av hårddiskar som gör att detta behövs.

Därför var det också lite extra trixigt när jag skulle göra en bootbar mirror av bootdisken. Jag fick alltså först använda fdisk i opensolaris för att skapa en slice som täckte hela disken. Jag fick även installera grub på spegeldisken och göra den bootbar. Först därefter gick det att lägga till den skapade slicen till rpool så att båda diskarna blev identiska och bootbara och speglade i en mirror (alltså motsvarande funktion som RAID1).

Skillnad var det när jag skapade min zpool tank med raidz1 inuti. Där behövde jag inte partitionera eller formatera diskarna utan det var bara att lägga till dem med zpool kommandot. Som saddam förklarat så har man då raidz1 array som ligger inuti en zpool. Inuti denna zpool skapar man filsystem och när man gjort det så kan man lista dem med "df -h" precis som i linux och då ser det ut ungefär som när man monterat partitioner i linux men här är det filsystem man pratar om. Dessa filsystem delar på utrymmet i den zpool de ligger i och man kan sätta begränsningar på storleken, utdelningar, kompression och andra egenskaper med zfs set. Som default blir det tillgängliga utrymmet detsamma som allt ledigt utrymme i zpoolen för varje filsystem men man kanske vill begränsa utrymmet för vissa användare eller något annat special och då kan man ju skapa ett separat filsystem för detta.

I princip är det även möjligt att skapa en zpool där man använder slices istället för hela hårddiskar. Det är inte optimalt eftersom det krånglar till administrationen samt återställning av trasiga diskar blir mera komplicerad (man måste i så fall partitionera, eller göra slices alltså, så att nya diskar som ersätter de gamla blir identiska). Men för en hemmapulare kan det vara ett sätt att utnyttja allt hårddiskutrymme. Säg att du har en 100 GB disk och två stycken 200 GB diskar. Slica upp 200 GB-diskarna till 100 GB slices så kan du göra en raidz med hela 100 GB disken plus en 100 GB slice från vardera 200 GB-disken och alltså få en raidz med 3*100 GB (200 Gb utrymme). Sedan kan du lägga till en mirror i samma zpool med de två återstående 100 GB slicen (så får man 100 GB till i poolen). Ja detta krånglar till det men kan vara värt att veta som överkurs. Kan även tänka mig att det kan inverka negativt för prestandan men ibland vill man kanske prioritera lagringsutrymme istället.

Permalänk
Avstängd

Jag har nu kopplat en strömbrytare till mina 5 st Samsung TB diskar.

Jag kopplade alla 5 diskar till en enda molex mha förgreningssladdar. En molex klarar av att driva 5-6 diskar utan problem. Sen klippte jag av molexens röda och gula sladd och lödde dit sladdar. I andra änden av sladdarna lödde jag fast en två polig strömbrytare som klarar av 16A. Det funkar prima.

Jag attachar och detachar ZFS raidet med "zpool import" och "zpool export". Datorn är tyst nu, eftersom endast en enda disk, dvs systemdisken, är igång. Inga jobbiga vibrationer längre (typ en bil på tomgång så rutorna skallrar). Systemdisken är 500GB, så allting cachar jag där. Typ: jag slänger över ett gäng filmer dit och kollar klart på filmerna. Sen slänger jag över en ny laddning dit. Och har en katalog som heter "sparasTillZFSraidet" - där lagrar jag allting som ska över till raidet. 500GB räcker långt som en cache. På så sätt har jag inte raidet igång så ofta i min workstation.

Jag har inte installerat windows drivrutin till mitt 8 portars SATA kort, så Windows kan inte komma åt diskarna av säkerhetsskäl.

För att koppla loss alla diskar: Skriv i OpenSolaris "zpool export" och ZFS raidet detachas. Stäng ned datorn och koppla ifrån strömbrytaren. Vid uppboot så syns inte diskarna längre i BIOS (dvs SATA kortets bios). De existerar inte.

För att koppla in diskarna: Stäng ned datorn. Koppla på strömbrytaren. Sätt på datorn. Diskarna syns nu i BIOS. I opensolaris skrives "zpool import". Klart.

Jag är skitnöjd. Datorn är nu tyst. Det enda som hörs är fläktarna och en tyst hård disk. Resten är passivt kyld.

Jag skrev mera om hur jag fick tyst på min Antec P182 här:
http://www.sweclockers.com/forum/showthread.php?s=&threadid=8...

Jag frågade här om lödningen och sånt, och fick jättebra tips:
http://www.sweclockers.com/forum/showthread.php?s=&threadid=8...

Permalänk
Medlem

Trevligt att det funkar med switchen saddam!
Kör du en NTFS-partition i windows som du mountar i solaris?

Permalänk
Avstängd

Ronnylov,
Nej jag mountar inte NTFS. NTFS-3G funkar inte bra för mig, jag kör Solaris Express build 105 - det är en annan dist än OpenSolaris. Jag får typ 2MB/sek. Det suger. Istället kör jag FAT32 partition på 120GB eftersom båda kan mounta det. Nåja. Solaris kör inte full hastighet på FAT32, jag får typ 20-30MB/sek eller så.

För den som undrar hur ZFS funkar tillsammans med HW raid. Bob Friesenahn, en av ZFS utvecklarna, tror jag, skriver om ZFS + HW raid kombinationen:

"ZFS will detect corruptions that other filesystems won't notice. If your HW raid passes bad data, then ZFS will detect that but it won't be able to correct defective user data. If ZFS manages the redundancy, then ZFS can detect and correct the bad user data. With recent OpenSolaris there is also the option of setting copies=2 so that corrupted user data can be corrected as long as the ZFS pool itself continues functioning."

Det verkar alltså som att HW raid ställer till det för ZFS. Men jag hörde nåt om att man kan sätta ihop 2 st HW raid arrayer och låta ZFS managera dem, och då kan det funka bra trots HW raid. Eller nåt sånt. Har inte detaljerna.

Här är en händelse då en stor bank får en krasch pga VxFS som strular. Och hur de testar ZFS istället; stressar och kraschar ZFS flera ggr och allt funkar topp notch ändå. Så de byter till ZFS.
http://blogs.sun.com/openomics/entry/fast_reliable_cheap_pick...

Permalänk
Medlem

Ja man kan ju sätta upp två stycken hårdvaruraidar som en zpool mirror och då kan ZFS använda sin felkorrigering precis som om det hade varit två speglade hårddiskar.

Läste också någonstans om någon som ville utnyttja sitt raidkorts hotswap-funktion och då fick han förslaget att sätta upp flera RAID1, två hårddiskar i varje och sedan göra en RAIDZ av dessa RAID1-enheter i ZFS. Blir alltså en blandning av hård- och mjukvaruraid man får ta till för att ZFS felkorrigering ska kunna utnyttjas tillsammans med hårdvaruraid.

Permalänk
Avstängd

Ronnylov,
I mina öron verkar det mycket enklare att bara rycka ut HW raidet och köra helt rent med endast SATA diskarna och inget annat emellan? (Och sälja HW raidet medan man fortfarande får bra betalt för det).

Linux snubbe tycker till om OpenSolaris ZFS Boot Environment:
http://reddevil62-techhead.blogspot.com/2008/12/opensolaris-2...
Dvs, man gör rollback på bitnivå på systemdisken, efter en patch som strulade.

Permalänk
Medlem

Anledningen att han prompt ville använda raidkontrollern var att den hade lysdioder som indikerade vilken disk som var trasig i hotswap-kasetterna. Själv har jag tagit frysetiketter och klistrat intill hårddiskplatserna så att jag vet vilken som är vilken och då är det ju lätt att hitta den felande disken med zpool status.

Verkar mycket intressant det här med boot environments, som en sorts återställningspunkter. Men hur funkar det om man bootar i en sådan boot environment och gör diverse ändringar, sparas dessa ändringar i denna befintliga bootmiljön? Om man vill ha en "oförstörd" ursprungsmiljö att kunna falla tillbaka till kan man göra den read-only eller hur bör man gå tillväga? Kanske kopiera ursprungsmiljön och boota på kopian och därifrån göra ändringarna kan jag tänka mig.

Permalänk
Permalänk

Det beror på din kontroller. Om jag minns rätt kör du på Intel's chipset raid? Då ska det inte spela någon roll. Kör man HW RAID ska man kolla att kontroller'n har stöd för "drive roaming" så kan du flytta dem hur du vill utan problem.

Visa signatur

on the internet since 1993
[ Geek - Dad - Programmer - RC enthusiast - Technology evangelist ]

Basically, you’re the guy who survived the shipwreck because you had a lifeboat, and now you’re standing on the shore telling the people still drowning that the ocean isn’t that bad.

Permalänk
Medlem

Vet inte om frågan var tydlig nog, så jag tar om det.

Om jag kör RAID5 (RAIDz) på ZFS och diskarna kopplas som singlediskar till kontrollern, dvs chipsetRAIDfunktionen i kontrollerna används inte, spelar det då nån roll om man, av misstag, byter ordningen på disk/kabel?

Bakgrunden är att jag funderar på att sätta upp flera externa ZFS-femmor monterade en i taget (för uppdateringar). När jag då byter ut ett rack till ett annat och råkar av misstag sätta en kabel fel - vad händer då?

Enligt ZFS' namnstandard ingår ju kontrollerid, portid, ev sliceid vid identifieringen av diskarna och om dessa inte sitter som förra gången kanske det blir härdsmälta?