Filserverbygge: Ubuntu server, ZFS och truecrypt

Permalänk

Ska välja Xeon E3 V2 nu. Såg att det ju finns E3-1265LV2 som verkar gå bra mycket snålare (45W) någon som har en åsikt?

Tar förvisso i runda slängar 2,5år innan man tjänar in de extra pengar man lägger på den rent ekonomiskt. (Tänkte välja E3-1240V2 annars). Men att köra lite snålare är väl inte fel (Värme också!?). HD Graphics används ändå inte med det moderkort jag köpt eftersom den har en egen liten matrox krets, så den banan har jag lämnat.

Permalänk
Medlem

Jag kör på en i3-2100T dvs slöaste i3an. Eftersom jag inte har någon kryptering kan jag inte riktigt svara på den biten, men även fast jag har några VMs igång, lite webb, streamar till min apple-tv, vpn server, ett gäng aktiva torrentar å sånt så ligger jag sällan över 25% load.

Visa signatur

"Datorn har ju fan mer dragningskraft än jorden. Skulle jag ramla skulle jag hamna i datorstolen & inte på golvet."

Permalänk
Skrivet av Samsite:

Hm.. Kan man inte bara kryptera diskarna, var för sig då givetvis? Krypterar en hel disk, mountar den i TC och använder den mountade enheten som disk i ZFS-poolen? Upprepa för varje disk. Då krypterar man ju själva disken, som är statisk vad gäller det maximala utrymmet. Är en disk på 2 TB så är den på 2 TB, punkt. Den kommer inte växa. Må så vara att ZFS-poolen växer senare då man tillför fler diskar, men då krypteringen sköts på lagret under, mot disken så att säga, så är det inget ZFS vet om.

Vidare får jag fortfarande intrycket att ZFS under Linux inte rekommenderas på grund utav att folk just av den anledningen för att det inte har fungerat tillfredsställande tidigare. Nu kan man ju köra det i kerneln, jag vet inte om det är just anledningen dock. Men jag får intrycket, inte bara här på SweC utan även på andra forum, att man inte rekommenderar det just för att det "inte är säkert", men när man ber om en utförlig förklaring så kommer inget. Många säger emot utan att ha konkreta anledningar till att stödja sitt argument. Jag var inne på det lite tidigare i tråden också. Ja, det var säkert jättedåligt tidigare. De flesta saker brukar vara det i början xD

Men då många personer som sagt inte kan försvara sina påståenden med argument så får jag intrycket utav att det mer stämpeln som ligger kvar och gror än att det just är jättedåligt att använda. Vad säger folket, har jag fel i mina argument? Kom gärna med kritik i sådana fall, det är trots allt därför vi frågar andra. Man vill höra deras åsikter.

Kanske kommer med lite sent inlägg, men kanske inte för sent? Om du krypterar varje disk, kommer dessa få en egen krypteringsnyckel. Du kommer då också behöva göra en egen backup av varje backup-nyckel (hålla koll på dem), utifall någon av nycklarna går sönder/blir förlorade etc. Sedan, om man skall vara lite teoretisk; ju större dataset du har krypterad (med samma nyckel) destå störra attackyta finns det. Men kör du något i klass med AES, behöver du inte bekymra dig då din budget kommer sätta stop för detta innan

Skrivet av linuxprofessor:

håller med om att detta måste vara den bästa lösningen. kan ju även tillägga att man kan köra VirtualBox i Solaris om man vill virtualisera eller köra Solaris Containers/Zones för att skapa flera virtuella instanser av OSet.

Solaris stödjer också XEN, som kan rekommenderas

Skrivet av saddam:

Kommentarer.
LSI SAS kortet du har, är mycket bra. Funkar perfekt under Solaris och FreeBSD och är faktiskt det som Oracle själva använder, har jag för mig - lite osäker på det. Men, en IBM M1015 är faktiskt också ett LSI kort som kallas LSI 9220-8i med annat namn än LSI och IBM kortet kan man köpa för $90 från Ebay (vilket jag gjort). Man flashar om det till "IT-mode". Många kör det med ZFS och BSD eller Solaris/OpenSolaris.
http://www.servethehome.com/ibm-m1015-part-1-started-lsi-9220...

Om man ska vara petnoga så bör man använda t.ex. 4 eller 8 diskar för lagring, vilket innebär att om du kör raidz2 så bör du ha 8 diskar + 2 = 10 diskar totalt. Skälet är att ZFS gillar när det har 8 diskar för lagring pga ZFS lagrar 8 bytes i taget (eller nåt sånt). Om du kör 8 diskars raidz2, så betyder det att du kör 6 diskar för lagring + 2 diskar för redundans. När ZFS ska lagra data, så måste datat delas på 6, och då blir det halva bytes som lagras på olika diskar. Det går jämnt upp om ZFS får 8 diskar för lagring. Ska du köra raidz3 så kan du använda 8 diskar + 3 för redundans = 11 diskar totalt. Då lagras data snyggt på alla diskar och det går jämnt upp.

Det har precis släppts Ivy Bridge Xeon versioner av cpuerna, de kallas "v2" på slutet. Så du kan sikta på en E3-1235v2. Det går att uppgradera BIOS på det moderkortet till v2.0 så det stödjer Ivy Bridge Xeon cpuer. Om inte moderkortet redan levereras med BIOS v2.0 så måste du ha en vanlig SandyBridge Xeon för att kunna uppgradera BIOS, sen byter du till en Ivy Bridge xeon cpu.

Se till att minnena är obuffrade. Kör du registrerade RAM minnen, så kommer det inte att funka med ditt moderkort.

Vill du köra kryptering så är det enklaste att köra Solaris 11, som har inbyggd kryptering. S11 har dock en ZFS version som är modernast, så den är inte kompatibel med FreeBSD eller Linux ZFS versioner. Mao, om du skapar en ZFS raid med S11, och sen försöker byta till FreeBSD så kommer det inte funka att importera ditt ZFS raid.

Använd inte deduplication, du måste ha mer än 1GB RAM för varje TB disk. Men slå gärna på komprimering, det funkar klockrent och kan ofta öka prestandan betydligt i praktiken. Det går snabbare att läsa in 100KB och packa upp det i RAM, än att läsa in 200KB.

Jag skulle undvika Linux med ZFS, och istället köra FreeBSD eller en helt öppen OpenSolaris fork, som t.ex. Illumian som är Solaris kernel men med Debian user land, och Debian pakethantering. Eller OpenIndiana som är pure OpenSolaris fork - men helt öppen och community drivet
http://trochejen.blogspot.se/2012/02/illumian-debian-like-dis...

SSD diskar som skriv och läs cache är helt onödigt för en hemanvändare. Man är poweruser om man använder det, eller kör ett företag.

Du kan även köra FreeBSD/Solaris helt virtualiserat i ESXi, och sen göra pass through till LSI kortet och accessa diskarna direkt. Många gör det framgångsrikt, här är en how-to och en megatråd med många success stories:
http://hardforum.com/showthread.php?t=1573272

'To eliminate the blank "round up" sectors for power-of-two blocksizes
of 8k or larger, you should use a power-of-two plus 1 number of disks in
your raid-z group -- that is, 3, 5, or 9 disks (for double-parity, use a
power-of-two plus 2 -- that is, 4, 6, or 10). Smaller blocksizes are
more constrained; for 4k, use 3 or 5 disks (for double parity, use 4 or
6) and for 2k, use 3 disks (for double parity, use 4).' [http://mail.opensolaris.org/pipermail/zfs-discuss/2010-Septem...

Permalänk

Och sedan har jag sett lite frågor angående rebuild time. Jag har ett raidz2 set på 20x2TB, vilket är fyllt till ~70%. När jag bytt en disk, ligger rebuild timen på ~15h, dvs, inte speciellt jättedåligt med tanke på diskens hastighet. CPUn arbetar, men ingen jättehög load - minns dock inte hur hög den var. Tror flaskhalsen är mina gamla kontrollerkort.

Permalänk
Skrivet av saddam:

Kommentarer.
...
Använd inte deduplication, du måste ha mer än 1GB RAM för varje TB disk. Men slå gärna på komprimering, det funkar klockrent och kan ofta öka prestandan betydligt i praktiken. Det går snabbare att läsa in 100KB och packa upp det i RAM, än att läsa in 200KB.
...

Glömde kommentera på denna Jo, visst kan komprimering ge ökad prestanda - förutsatt att datan man lagrar är lämpar sig bra för komprimering. Packa ner med gzip eller något, på den datan du tänkt komprimera och se vad komprimeringsgraden blir - blir den "hög" lämpar det sig med komprimering, medan blir den låg/negativ skulle jag avråda då det kommer ta mera plats / bara ta längre tid att använda. Dedup, fungerar i praktiken bra om du medvetet återanvänder en hel del (svår)komprimerad data. Ja skrev (svår)komprimerad, eftersom komprimering kan ge bättre effekt än dedup i vissa tillfällen, även om man inte först tror det. Se t.ex. http://www.edugeek.net/forums/nix/49844-zfs-deduplication-ded... för lite heads up

Permalänk
Medlem
Skrivet av Fastidious:

Jag testade LUKS (cryptsetup) virtuellt under ubuntu server. Det verkade fungera bra men jag fick en bättre känsla av truecrypt. Truecrypt kan dessutom köra flera algoritmer samtidigt, det verkar inte LUKS kunna. Detta verkar dock rätt onödigt då säkerheten snarare kommer ligga i vad man väljer för passphrase. Om fler har insikter i för- och nackdelar gällande TrueCrypt vs LUKS så är det jättebra information. En nackdel med TrueCrypt jag sett är:
http://fedoraproject.org/wiki/ForbiddenItems#TrueCrypt

Intel processorerna stöder väll enbart AES med hårdvauacceleration http://www.sweclockers.com/recension/15291-intel-core-i7-3770k-och-core-i5-3570k/11#pagehead som du ser så får du ingen nytta av den instruktionen om du ska köra andra nyckelsets.

Visa signatur

System: Team Red

Permalänk
Inaktiv

Jag skulle rekomendera att du köra FreeBSD och geli för kryptering. Betydligt kraftfullare än truecrypt och enklare att sköta med plus att zfs är klart mer mogen på FreeBSD än linux (i alla fall var då jag kollade några månader sedan). En sak som tål att tänka på är vart du ska lägga geli krypteringen. Direkt på disken och sedan köra RAIDZx ovanpå eller först RAIDZx och geli kryptering på den. Finns argument för båda och bör fungera ungefär lika bra i båda fallen.

Problem med FreeBSD är hårdvarustöd. Den är betydligt kinkigare än linux men du får ett klart bättre OS så det är värt att kolla upp om saker stöds innan man köper.

Permalänk
Avstängd
Skrivet av Puppetfreek:

Och sedan har jag sett lite frågor angående rebuild time. Jag har ett raidz2 set på 20x2TB, vilket är fyllt till ~70%. När jag bytt en disk, ligger rebuild timen på ~15h, dvs, inte speciellt jättedåligt med tanke på diskens hastighet. CPUn arbetar, men ingen jättehög load - minns dock inte hur hög den var. Tror flaskhalsen är mina gamla kontrollerkort.

Flaskhalsen är hur mycket IOPS du har, dvs hur många vdevs du har. Om du t.ex. har 20 st diskar i en enda vdev, så kommer det ta lång tid. Har du många vdevs, t.ex. många speglar, så kommer det gå snabbt.

"Scrubbing is an approximately random IOPS task. Mirrors parallelize random
IO much better than raid."

Permalänk
Skrivet av saddam:

Flaskhalsen är hur mycket IOPS du har, dvs hur många vdevs du har. Om du t.ex. har 20 st diskar i en enda vdev, så kommer det ta lång tid. Har du många vdevs, t.ex. många speglar, så kommer det gå snabbt.

"Scrubbing is an approximately random IOPS task. Mirrors parallelize random
IO much better than raid."

Tja,

Jo, det känner jag till. Men detta är 20 st på 1enraidz2, dvs en vdev. Så, även om det går långsammare, är det ju inte tider som det ofta spekulerats om tidigare (dagar/veckovis), utan snarare några timmar längre.

Permalänk
Avstängd
Skrivet av Puppetfreek:

Tja,

Jo, det känner jag till. Men detta är 20 st på 1enraidz2, dvs en vdev. Så, även om det går långsammare, är det ju inte tider som det ofta spekulerats om tidigare (dagar/veckovis), utan snarare några timmar längre.

Tiderna som pratades om, gäller om du har stora diskar, typ >4TB och dessutom aktivitet på servern. Om man jobbar mycket mot servern samtidigt så funkar inte den konfiguen i produktion. Men sitter man hemma så kanske man inte bryr sig om det tar lång tid.

Det var nån som byggde om en 20 diskars raidz2 till två vdevs och fick mycket högre prestanda. Själv skulle jag kört raidz3 om jag haft 20 diskar. Fast helst, flera vdevs. Rekommendationen från Oracle/SUN är ju att man undviker större vdevs än 15 diskar.

Permalänk
Skrivet av saddam:

Tiderna som pratades om, gäller om du har stora diskar, typ >4TB och dessutom aktivitet på servern. Om man jobbar mycket mot servern samtidigt så funkar inte den konfiguen i produktion. Men sitter man hemma så kanske man inte bryr sig om det tar lång tid.

Det var nån som byggde om en 20 diskars raidz2 till två vdevs och fick mycket högre prestanda. Själv skulle jag kört raidz3 om jag haft 20 diskar. Fast helst, flera vdevs. Rekommendationen från Oracle/SUN är ju att man undviker större vdevs än 15 diskar.

Sitter du med diskar >4TB, så kommer det ta längre tid oavsett vilket konfig man kör med. T.ex. en mirror, tar ju längre tid att fylla om det är 4TB diskar man kör med än 2TB, förutsatt att diskarnas hastighet är någolunda densamma och man fyllt båda till samma procent. Men visst har du rätt i att det jag satt upp hemma inte är en produktionsserver - då hade jag kör flera mindre vdevs, och tittat på raid 10/50/60 beroende på kraven. Och kansk även funderat på någon form av SSD för snabba upp write/read.

Jo, visst hade jag fått högre prestanda, men inte SÅ mycket när det kommer till själva scrubbingen. Diskarna jag har är inte de snabbaste, och om jag ligger på runt 70% av max prestanda hos disken vid scrubbingen, tycker jag det är ett bra pris att betala. Skillnad hade ju varit om det tagit dagar - då hade jag känt en större risk med det hela, och framför allt känt av hastighetsskillnaderna. Och visst tar random read längre tid, men inget jag märkt av när jag använt servern till streaming/filserver för 1 person Och ja, rekommendationen ligger väl oftast på runt max 10-diskar, men det är ju som sagt tänkt till produktionsservrar.

Permalänk
Skrivet av anon127948:

Jag skulle rekomendera att du köra FreeBSD och geli för kryptering. Betydligt kraftfullare än truecrypt och enklare att sköta med plus att zfs är klart mer mogen på FreeBSD än linux (i alla fall var då jag kollade några månader sedan). En sak som tål att tänka på är vart du ska lägga geli krypteringen. Direkt på disken och sedan köra RAIDZx ovanpå eller först RAIDZx och geli kryptering på den. Finns argument för båda och bör fungera ungefär lika bra i båda fallen.

Problem med FreeBSD är hårdvarustöd. Den är betydligt kinkigare än linux men du får ett klart bättre OS så det är värt att kolla upp om saker stöds innan man köper.

Tja,

Lite nyfiken och intresserad vad du menar med betydligt kraftfullare? Inte så insatt i just Geli, men vad är det som gör Geli betydligt kraftfullare än Truecrypt? Tänker du på userland vs kernel? Eller är det några features du menade?

Permalänk
Inaktiv
Skrivet av Puppetfreek:

Tja,

Lite nyfiken och intresserad vad du menar med betydligt kraftfullare? Inte så insatt i just Geli, men vad är det som gör Geli betydligt kraftfullare än Truecrypt? Tänker du på userland vs kernel? Eller är det några features du menade?

Det är bättre integrerat i systemet men framför allt möjlighet att fixa så att du bootar från en USB sticka som du sedan tar bort. Utan den är absolut allt på datorn krypterat och går inte bevisa att det finns något på den.

Jag kör truecrypt på windows och det är jätte bra men om du har FreeBSD är geli klart bättre val.

Permalänk
Skrivet av anon127948:

Det är bättre integrerat i systemet men framför allt möjlighet att fixa så att du bootar från en USB sticka som du sedan tar bort. Utan den är absolut allt på datorn krypterat och går inte bevisa att det finns något på den.

Jag kör truecrypt på windows och det är jätte bra men om du har FreeBSD är geli klart bättre val.

Ahh, då förstår jag vad du menar. Jag förstod det som att du rekommenderade Geli över TrueCrypt, och då därför också rekommenderade FreeBSD.
Och du kan skapa liknande bootdisk med TrueCrypt med deras rescue disk om jag inte minns fel.

Permalänk
Avstängd
Skrivet av Puppetfreek:

Sitter du med diskar >4TB, så kommer det ta längre tid oavsett vilket konfig man kör med. T.ex. en mirror, tar ju längre tid att fylla om det är 4TB diskar man kör med än 2TB, förutsatt att diskarnas hastighet är någolunda densamma och man fyllt båda till samma procent. Men visst har du rätt i att det jag satt upp hemma inte är en produktionsserver - då hade jag kör flera mindre vdevs, och tittat på raid 10/50/60 beroende på kraven. Och kansk även funderat på någon form av SSD för snabba upp write/read.

Jo, visst hade jag fått högre prestanda, men inte SÅ mycket när det kommer till själva scrubbingen. Diskarna jag har är inte de snabbaste, och om jag ligger på runt 70% av max prestanda hos disken vid scrubbingen, tycker jag det är ett bra pris att betala. Skillnad hade ju varit om det tagit dagar - då hade jag känt en större risk med det hela, och framför allt känt av hastighetsskillnaderna. Och visst tar random read längre tid, men inget jag märkt av när jag använt servern till streaming/filserver för 1 person Och ja, rekommendationen ligger väl oftast på runt max 10-diskar, men det är ju som sagt tänkt till produktionsservrar.

Har du provat att ta ut en disk och reparera raidet och se hur lång tid det tar? Kanske kan vara nyttigt att veta?

Permalänk
Inaktiv
Skrivet av Puppetfreek:

Ahh, då förstår jag vad du menar. Jag förstod det som att du rekommenderade Geli över TrueCrypt, och då därför också rekommenderade FreeBSD.
Och du kan skapa liknande bootdisk med TrueCrypt med deras rescue disk om jag inte minns fel.

Vad gäller själva kryptering bör det inte vara större skillnad mellan dessa två. Geli är bara bättre integrerad.

Boot med extern USB fungerar mycket smidigare med geli än att trixa med repair disk för truecrypt.

Men huvudanledningen för att välja freebsd är att zfs är bra mycket mer mogen på den (btrfs är ett skämt jämfört med zfs så tänk inte ens på den några år till så den hinner bli testad och stabil).

Permalänk
Skrivet av saddam:

Har du provat att ta ut en disk och reparera raidet och se hur lång tid det tar? Kanske kan vara nyttigt att veta?

Tja,

Ja, det var det jag gjorde - tog ut en trasig disk, och satte in en ny blank. Tog runt 15h att reparera.

Permalänk

Hej,

Har nu snurr på grejorna nu. Det gick rätt bra, det var mest problem för mig att flasha controller-kortet till IT-mode. Fick alla tänkbara fel som beskrivs och fick gå vägen via EFI-shell, men nu är det fixat.

Bild på chassit när det precis kommit hem.

Bild på chassit i drift, all hårdvara på plats.

Ett litet frågetecken! Den uppmärksamme ser på sista bilden att en av hårddiskarnas activity-led lyser konstant. Den hårddiskens ladd-lampa har haft konstant sken sedan jag monterade diskarna i chassit. Har provat att både byta hotswap-bay och placering av disken och det är endast just den disken som lyser. Det tyder väl på att aktivitetsindikeringen på själva disken borde vara fel, eller? Funderar isåfall på att byta disken imorgon till en ny.

Jag har inte märkt några problem med disken än i linux, ska undersöka lite ytterligare. Har nämligen testat att köra de 8 diskarna i en zpool och zfs verkar fungera utmärkt än så länge. Inga hastighetsproblem, inga konstigheter än. Har tom bråkat lite med den genom att plugga i och ur lite diskar och testat, allt fungerar utmärkt och som väntat. Det som inte fungerat klockrent var att det ibland inte går att unmounta poolen, det står att den är busy. Funderade om det kunde ha med den konstant skinande aktivitetslampan på en av diskarna att göra, men jag vet inte.

Det surrar på rätt friskt chassit, så jag funderar på att byta fläktar. Jag har den iofs bakom dörr så den hörs knappt, men det var nog ändå lite väl hög ljudnivå för min smak.

Permalänk

För att uppdatera angående diskarna så fick jag byta disken och den nya lyser inte. Nått knasigt var det med den gamla iaf.

Permalänk
Medlem

Trevlig att få en update.
Om du byter fläktarna till tystare (långsammare) så kan du överväga att täppa igen ventilationsspringan på de diskplatser där du inte har någon disk. Då kommer insuget att bli mer fokuserat på de vaggor som har disk i sig.

Visa signatur

Dator: MSI X570 Tomahawk, AMD 5600x, 64 GB RAM, 2xNVMe, 2xSATA SSD, 10 GBit NIC, Grafik Nvidia 3060 12 GB RAM
Skärm: Dell U3821DW 38" ultrawide Bärbar dator: MBA M1
Synology DS1821+ (10Gbit) - Dockers, VM, Surveillance Station 9 kameror
DS3612xs (10Gbit) - Backup sparas till denna från ovan
Skrev jag något vettig? "Tumme up":a så vet jag att det fanns nytta i min post.

Permalänk
Medlem
Skrivet av Puppetfreek:

'To eliminate the blank "round up" sectors for power-of-two blocksizes
of 8k or larger, you should use a power-of-two plus 1 number of disks in
your raid-z group -- that is, 3, 5, or 9 disks (for double-parity, use a
power-of-two plus 2 -- that is, 4, 6, or 10). Smaller blocksizes are
more constrained; for 4k, use 3 or 5 disks (for double parity, use 4 or
6) and for 2k, use 3 disks (for double parity, use 4).' [http://mail.opensolaris.org/pipermail/zfs-discuss/2010-Septem...

Din länk funkar inte längre. Men ZFS ställer väl in block size automatiskt har jag för mig. Visserligen har man väl den där "ashift=12" för att begränsa till 4K-block på de här advanced format diskarna. Men läser jag ditt citat så tolkar jag det att med 4K-diskar ska man alltså ha 4 eller 6 diskar för raidz2 för att det ska bli optimalt? Men om man sätter "ashift=13" när man skapar poolen då borde den väl bli begränsad till 8K och då skulle man kunna köra raidz2 även med 10 diskar optimalt alltså (förutom raidz2 med 4 eller 6 diskar)? Men det kanske finns andra nackdelar med ashift=13?

Edit: Länken funkar om man tar bort sista hakparantesen...

Edit 2: ashift=13 kan tydligen ge en aning bättre prestanda jämfört med ashift=12.
http://osdir.com/ml/zfs-discuss/2011-07/msg00298.html

Citat:

Scrub performance (to me a big indicator when dealing with large amounts of space to make sure it can be done in less than 1 day) is very good, around 3.5GB/s over 96 drives (2xX5680 cpu's). Bottleneck here is the drives themselves (low-end sata ST2000DL03's). These are AFT drives, have found that ashift=12 is minimum for proper alignment but ashift=13 seems to give a little more of boost (+10% over ashift=12) at a cost of minimum file size of 8KiB (so can loose space if you have very small files).
Memory is King, would say that without any other features having 1GiB/TiB is a baseline. With compression/DeDup you probably want 2GiB/TiB

Hittade också någon graf där någon testat 4 stycken 4K-diskar i raidz2:
http://bit.ly/kcvkLv #zfsonlinux
En aning bättre prestanda med ashift=13 jämfört med ashift=12 som i sin tur är mycket bättre än ashift=9.

Permalänk
Medlem

Var ett tag sedan denna tråd var aktuell men då den stämmer in på det jag söker så försöker jag väcka liv i den. Jag har lite funderingar precis som trådskaparen angående ubuntu server, zfs och truecrypt. Har precis bygg i ordning min filserver men har inte bestämt hur jag ska sätta upp den.

Hårdvara:
Intel S1200BTLR moderkort
Intel Xeon E3-1240v2
16 gb ECC minne
2xIBM m1015 som är omflashade till LSI 9211-8i IT
Ett gäng diskar, både nya och gamla

Provade i fredags att installera ubuntu server 12.10 på den samt att jag krypterade hela diskarna med truecrypt som jag sedan mountade och skapa en ZFS raidz2 volym på. Det funkade kanon och när jag gjorde de vanliga dd testen fick jag typ 650Mb/s skriv och 1Gb/s läs. Dock kändes det inte optimalt när man bootar om och zfs försöker mounta diskarna automatiskt. Jag måste ju mounta dem med truecrypt innan detta kan ske. Men när jag väl gjort det var det inga problem att få igång zfs. Har letat lite men inte hittat någon inställning som stänger av automount av zfs. Hur kör ni andra?

Jag provade sedan att lägga in esxi och därigenom solaris 11.1 då detta har den senaste zpool versionen och även kryptering. Körde då passthrough på lsi kortet så att solaris får direktaccess till kort och diskar. Detta verkar också funka bra men jag känner mig helt vilse i solaris då jag tidigare kört linux i 15 år. Har letat runt lite men inte hittat den information jag söker så jag tänkte höra lite hur ni andra löst detta. Funderar om jag ska sätta mig in i solaris och bara ha det för att sköta zfs delen och sedan köra en ubuntu server som accessar lagringen genom nfs. Tacksam för alla tips ni har.

Permalänk
Medlem

ZFS skal ha kontakt med metallen i diskarna direkt för att kunna laga fel under "raid nivå". Det verkar helknasigt att kryptera diskarna med Truecrypt och sedan lägga ZFS på det. Varför inte göra tvärt om?

Du kan ju också kolla på iSCSI för att kunna köra Truecrupt från en annan maskin om det önskas.