Filserverbygge: Ubuntu server, ZFS och truecrypt

Permalänk
Medlem

Tips förresten; det stämmer att du inte kan öka antalet diskar i en vdev, MEN du kan byta ut diskarna till större diskar, och på så sätt öka storleken. Jag byter själv ut 1,5TB'are mot 3TB'are, och när sista disken byts ut så fördubblas storleken. Sen kan du förstås lägga till fler vdevs i en zpool om nu 3-4TB diskar inte skulle räcka till.

Permalänk
Skrivet av Zidern:

Tips förresten; det stämmer att du inte kan öka antalet diskar i en vdev, MEN du kan byta ut diskarna till större diskar, och på så sätt öka storleken. Jag byter själv ut 1,5TB'are mot 3TB'are, och när sista disken byts ut så fördubblas storleken. Sen kan du förstås lägga till fler vdevs i en zpool om nu 3-4TB diskar inte skulle räcka till.

hur lång rebuildtime har du på varje disk?

Visa signatur

Arbetsstation: Macbook Pro Retina 15", Core i7 2,6 GHz, 16 GB RAM, 512 GB SSD
NAS: Synology 1812+ har numera ersatt min filserver
Blog: http://www.nickebo.net/
Twitter: @linuxprofessor
Övrigt: Linux/UNIX/OpenVMS, ZFS, lagring och systemövervakning

Permalänk
Skrivet av Zidern:

Tips förresten; det stämmer att du inte kan öka antalet diskar i en vdev, MEN du kan byta ut diskarna till större diskar, och på så sätt öka storleken. Jag byter själv ut 1,5TB'are mot 3TB'are, och när sista disken byts ut så fördubblas storleken. Sen kan du förstås lägga till fler vdevs i en zpool om nu 3-4TB diskar inte skulle räcka till.

Sant, om man ändå vil byta ut diskarna. Valet jag gör på antal diskar är för att lägga sig på rimlig % som går till redundans. Med 6 diskar hamnar jag på en tredjedel som försvinner i redundans med raidz2. Sen kan man ju precis som du säger byta mot större diskar. Men ska man köpa lika många diskar igen, fast större, så kan man ju lika gärna skapa en raidz2 till och lägga till i zpoolen. (om man nu inte är väldigt rädd att gamla diskarna är på väg att krascha allesammans)

Skrivet av Zidern:

Jag sitter själv och migrerar min Ubuntu server till BSD, eftersom ZFS är så förb***at buggigt i Linux. Hela datorn totalkraschar efter att jag fört över ett par gig data bara, och det är verkligen inget skoj när man har en 3TB-disk med filer som ska dit. Och BSD tokvägrar såklart läsa disken av nån outgrundlig anledning.. Så det blir att springa fram och tillbaka till servern och trycka resetknappen, logga in igen och fortsätta kopieringen...

Hmm, vet du mer om detta? Har du lyckats reda ut vad problemet är? All hårdvara kompatibel, osv? Har nämligen flera källor som säger att ZFS fungerar fint under linux också, så det verkar vara lite olika. Just nu är jag fortfarande kvar på val av hårdvara i projektet, så slutgiltigt val av mjukvara ligger i framtiden och all diskution om det är väldigt värdefullt för mig. Har personligen bara testat virtuellt (givetvis, då jag inte har hårdvara) än, men det fungerar bra gällande ZFS under linux.

Skrivet av Zidern:

Ang. raid (eller zpool) på krypterade diskar så gillar inte ZFS det nåt vidare, det vill gärna ha direktaccess till disken utan nåt mellanliggande lager.

Här skulle jag också gärna vilja ha mer information. Vad är det som gör att ZFS inte gillar det? Vad blir resultatet? Även här har jag testat virtuellt och det fungerar utan några som helst problem. Men jag är verkligen intresserad av att höra om problem angående ZFS och annan mjukvara eftersom det är ett val jag behöver göra.

Tack för input!

Permalänk
Medlem
Skrivet av zyberzero:

Fråga 3: Jag vet inte vilket Asus-kort du har kollat på, men fördelar som jag såg mot att köpa ett vanligt konsumentkort:
* dubbla (bra) Intel-NICar, perfekt för routing
* IPMI, så man kan fjärrstyra datorn helt, mounta ISO-filer över nätverket som datorn kan boota(!) ifrån.

Går att fjärrstyra de allra flesta datorer remote, som har intelprocessor, med hjälp av vPro. Hört att de ska vara rätt buggigt dock, men går fortfarande.
Så IPMI lär fortfarande vara att föredra.

Visa signatur

Citera om du skriver till mig. Annars läser jag troligtvis INTE.

Permalänk
Medlem
Skrivet av linuxprofessor:

hur lång rebuildtime har du på varje disk?

Det har jag inte tänkt så noga på, det tar ju några timmar så jag har satt på det på kvällen och sen gått och lagt mig helt enkelt. Jag har för mig dock att det bara skrivs så mycket till disken som det var på den gamla disken, så det beror på hur mycket filer man har lagrat.

Permalänk
Medlem
Skrivet av Fastidious:

Sant, om man ändå vil byta ut diskarna. Valet jag gör på antal diskar är för att lägga sig på rimlig % som går till redundans. Med 6 diskar hamnar jag på en tredjedel som försvinner i redundans med raidz2. Sen kan man ju precis som du säger byta mot större diskar. Men ska man köpa lika många diskar igen, fast större, så kan man ju lika gärna skapa en raidz2 till och lägga till i zpoolen. (om man nu inte är väldigt rädd att gamla diskarna är på väg att krascha allesammans)

Visst kan man det, men då fördubblas både antal SATA-portar som behövs, strömbehov, 3,5"-platser osv. För min del har jag bara plats för 6 diskar, så att kunna byta ut dom och expandera på så sätt är suveränt, iallafall tills man tar sig för att uppgradera chassit, och investera i SATA-kontroller osv.

Citat:

Hmm, vet du mer om detta? Har du lyckats reda ut vad problemet är? All hårdvara kompatibel, osv? Har nämligen flera källor som säger att ZFS fungerar fint under linux också, så det verkar vara lite olika. Just nu är jag fortfarande kvar på val av hårdvara i projektet, så slutgiltigt val av mjukvara ligger i framtiden och all diskution om det är väldigt värdefullt för mig. Har personligen bara testat virtuellt (givetvis, då jag inte har hårdvara) än, men det fungerar bra gällande ZFS under linux.

Hårdvarukompatibiliteten är det inget problem med, servern har rullat Linux-RAID i flera år utan problem. Det verkar som att det är nåt problem med minnesallokering, men jag har inte hittat varken några raka svar, eller lösning/workaround, bara att andra haft liknande problem.

Citat:

Här skulle jag också gärna vilja ha mer information. Vad är det som gör att ZFS inte gillar det? Vad blir resultatet? Även här har jag testat virtuellt och det fungerar utan några som helst problem. Men jag är verkligen intresserad av att höra om problem angående ZFS och annan mjukvara eftersom det är ett val jag behöver göra.

Tack för input!

Från Wikipedia:

ZFS can not fully protect the user's data when using a hardware RAID controller, as it is not able to perform the automatic self-healing unless it controls the redundancy of the disks and data. ZFS prefers direct, exclusive access to the disks, with nothing in between that interferes. If the user insists on using hardware-level RAID, the controller should be configured as JBOD mode (i.e. turn off RAID-functionality) for ZFS to be able to guarantee data integrity. Note that hardware RAID configured as JBOD may still detach disks that do not respond in time; and as such may require TLER/CCTL/ERC-enabled disks to prevent drive dropouts. These limitations do not apply when using a non-RAID controller, which is the preferred method of supplying disks to ZFS.

Permalänk
Skrivet av Zidern:

Visst kan man det, men då fördubblas både antal SATA-portar som behövs, strömbehov, 3,5"-platser osv. För min del har jag bara plats för 6 diskar, så att kunna byta ut dom och expandera på så sätt är suveränt, iallafall tills man tar sig för att uppgradera chassit, och investera i SATA-kontroller osv.

Absolut, tänkte på det i efterhand också. Jag kommer inte ha problem med plats osv då min lösning snarare är tänkt ha möjligheter för att expandera på det viset så jag tänkte utifrån mig. Du har givetvis rätt i att det kan vara ett problem för många med diskplatser och annat som krävs.

Skrivet av Zidern:

Hårdvarukompatibiliteten är det inget problem med, servern har rullat Linux-RAID i flera år utan problem. Det verkar som att det är nåt problem med minnesallokering, men jag har inte hittat varken några raka svar, eller lösning/workaround, bara att andra haft liknande problem.

Där ser man. Det är verkligen värt att titta på. Hojta gärna till om du skulle få mer insikt i problemet. Länka gärna till några källor eller så med liknande problem om du vet några på rak arm. Inte för att bevisa något då, utan bara för att jag vill läsa mer om det.

Skrivet av Zidern:

Från Wikipedia:

ZFS can not fully protect the user's data when using a hardware RAID controller, as it is not able to perform the automatic self-healing unless it controls the redundancy of the disks and data. ZFS prefers direct, exclusive access to the disks, with nothing in between that interferes. If the user insists on using hardware-level RAID, the controller should be configured as JBOD mode (i.e. turn off RAID-functionality) for ZFS to be able to guarantee data integrity. Note that hardware RAID configured as JBOD may still detach disks that do not respond in time; and as such may require TLER/CCTL/ERC-enabled disks to prevent drive dropouts. These limitations do not apply when using a non-RAID controller, which is the preferred method of supplying disks to ZFS.

Jo, att ZFS inte riktigt gillar externa RAID-controllers visste jag om. Har läst att en del kör JBOD på sina controllers för att användas med ZFS. Finns ju även som texten säger controllers som inte har RAID, vilket är det jag kikar på. Men att just TrueCrypt skulle orsaka problem ser jag inte som samma sak som att man har problem med hårdvaran. Tar gärna emot mer info eller indikationer på att det kan vara så dock.

Controllers
Mina funderingar just nu ligger kring hur jag rent praktiskt löser det med styrning av diskar. Om tex Zyberzero eller någon annan som har ett Norco-chassi skulle kunna berätta lite vidare hur detta går till. Som jag förstått det har varje plan (á 4 diskar) en SAS-kontakt. Då det är 5 plan blir det ju 5st SAS-kontakter totalt. Dessa ska ju anslutas nånstans då. Efter vad jag har sett är det inte så lätt, eller framförallt billigt, att hitta controller-kort som har möjlighet at dra in 5st SAS. Någon som kan det här med serverlösningar med många diskar som kan förklara lite hur man kan göra för att styra alla dessa diskar utan att lägga en hel förmögenhet?

Permalänk
Medlem
Skrivet av Fastidious:

Controllers
Mina funderingar just nu ligger kring hur jag rent praktiskt löser det med styrning av diskar. Om tex Zyberzero eller någon annan som har ett Norco-chassi skulle kunna berätta lite vidare hur detta går till. Som jag förstått det har varje plan (á 4 diskar) en SAS-kontakt. Då det är 5 plan blir det ju 5st SAS-kontakter totalt. Dessa ska ju anslutas nånstans då. Efter vad jag har sett är det inte så lätt, eller framförallt billigt, att hitta controller-kort som har möjlighet at dra in 5st SAS. Någon som kan det här med serverlösningar med många diskar som kan förklara lite hur man kan göra för att styra alla dessa diskar utan att lägga en hel förmögenhet?

Du kan använda flera mindre controllers också. 3st 2-portars skulle nog inte kosta en alltför stor summa pengar (med lite flyt 2000-2500kr). Och då har du dessutom en port över till systemdiskar, om du skulle önska det. Beroende på konfigurationen har du kanske även redundans om ett kontrollerkort skulle fallera.
Men visst är man inne och pillar lite på mer energiförbrukning då också..

Visa signatur

WS: Asus P8Z77-I Deluxe mITX | Intel 3770K@4.6 | NH-U12P | Asus 780 GTX | Corsair 2x8GB 1600Mhz CL9 | Samsung 840 512GB | Ubuntu 16.04.3 x86_64 | Corsair AX750 | 2x Dell U2412M | Puppe.se | NAS: i7 860, 16GB DDR3, GA-P55M-UD4, FD Define R3, 8x2TB Samsung F4EG, Serveraid M1015, EVGA 750W G2 PSU, FreeBSD x64

Permalänk
Medlem

Hej Fastidious mfl!

Och tack för en mycket intressant tråd!

Jag vill åstadkomma i princip samma sak vill presentera mitt serverupplägg: http://drdata.blogg.se/. Där skriver jag att jag ska använda mig software RAID, LVM mm. Anledningen till dessa val är att det är beprövad teknik som används "överallt".

Ursprungligt upplägg:
- Två 60 GB SSD med

  • EFI bootpartition om 100 MB per disk

  • speglad rootpartition om 10 GB (RAID 1, /dev/md0)

  • en swappartition om 8 GB per disk

  • resterande utrymme blir en speglad Flashcache (RAID 1, /dev/md1)

- 4x2 TB datadisk (RAID 5, /dev/md2 och LVM)

Varför EFI-boot? Ingen som helst anledning förutom att om jag vill ha möjligheten till ACPI, försätta servern i viloläge och övervakning på diskarna (smartmontools). Då verkar man få EFI på köpet. När man installerar OS på en speglad volym, så får man också frågan om man vill kunna starta servern i "degraded mode". Det är ju klart att man vill! Men jag får inte till det med att starta servern från den kopierade bootpartitionen. Kanske någon här har djupare kunskaper om detta.

Backup är ju ett måste och snapshots med LVM för dagliga förändringar är ju inte alls dumt. Tyvärr upptäckte jag också samtidigt att en snapshot i LVM blir lika stor som filsystemet oavsett datamängd. Dvs ett filsystem på en TB med 35 MB filer på får en snapshot på samma storlek (1 TB). Det blir ju ohållbart på en hemserver med 4 TB "rådisk" om man vill ha en backuphistorik. Tillbaks till ritbordet... Jag ville egentligen inte använda ZFS på Linux eftersom det i skrivande stund är version 0.6. Och precis som andra har skrivit här, så verkar det vara tunnsått med erfarenheter kring kombinationen ZFS och Ubuntu. Och de flesta hänvisar direkt eller indirekt till FreeBSD. Varför skulle den kombinationen fungera bättre? Initiala tester jag gjort med Ubuntu/ZFS ser bra ut tycker jag.

Jag gillar LVM och jag gillar ZFS. I jämförelse, så ger dock LVM intryck att vara något till åren. Det är absolut inget fel på LVM men för en privatperson med en något mer ansträngd budget än ett företag eller myndighet och önskemål om backupmöjligheter, så är LVM inte tillfyllest.

Nytt upplägg:
- Två 60 GB SSD med

  • EFI bootpartition om 100 MB per disk

  • speglad rootpartition om 10 GB (RAID 1, /dev/md0)

  • en swappartition om 8 GB per disk

  • en ZIL-partition om 4 GB per disk (ZFS speglar denna)

  • resterande utrymme blir ZFS-cache

- 4x2 TB datadisk (ZFS, raidz varav en hot spare)

En tanke som har slagit mig efter att ha sökt på Internet efter hur att konfigurera "den bästa" hemservern är att de allra flesta verkar använda "out-of-the-box"-tekniken som finns tillgänglig under installationen av tex Ubuntu, dvs software RAID och/eller LVM. Och man tar en gammal hårddisk där OS får ligga, skapar en stor RAID5-blaffa av datadiskarna och formatterar denna. Jag tycker att det är lite obetänksamt men det är kanske ett tillräckligt bra upplägg. Själv vill jag ha åtminstone en replika på mitt digitala material. Det är anledningen till att jag tittar på DRBD. Men LVM:s bulkighet gör att jag väljer bort den kombinationen till förmån för ZFS. Och ZFS-send/-receive ger samma möjligheter.

Mvh
Davor

Permalänk
Skrivet av davorv:

Hej Fastidious mfl!

Och tack för en mycket intressant tråd!

Jag vill åstadkomma i princip samma sak vill presentera mitt serverupplägg: http://drdata.blogg.se/. Där skriver jag att jag ska använda mig software RAID, LVM mm. Anledningen till dessa val är att det är beprövad teknik som används "överallt".

Ursprungligt upplägg:
- Två 60 GB SSD med

  • EFI bootpartition om 100 MB per disk

  • speglad rootpartition om 10 GB (RAID 1, /dev/md0)

  • en swappartition om 8 GB per disk

  • resterande utrymme blir en speglad Flashcache (RAID 1, /dev/md1)

- 4x2 TB datadisk (RAID 5, /dev/md2 och LVM)

Varför EFI-boot? Ingen som helst anledning förutom att om jag vill ha möjligheten till ACPI, försätta servern i viloläge och övervakning på diskarna (smartmontools). Då verkar man få EFI på köpet. När man installerar OS på en speglad volym, så får man också frågan om man vill kunna starta servern i "degraded mode". Det är ju klart att man vill! Men jag får inte till det med att starta servern från den kopierade bootpartitionen. Kanske någon här har djupare kunskaper om detta.

Backup är ju ett måste och snapshots med LVM för dagliga förändringar är ju inte alls dumt. Tyvärr upptäckte jag också samtidigt att en snapshot i LVM blir lika stor som filsystemet oavsett datamängd. Dvs ett filsystem på en TB med 35 MB filer på får en snapshot på samma storlek (1 TB). Det blir ju ohållbart på en hemserver med 4 TB "rådisk" om man vill ha en backuphistorik. Tillbaks till ritbordet... Jag ville egentligen inte använda ZFS på Linux eftersom det i skrivande stund är version 0.6. Och precis som andra har skrivit här, så verkar det vara tunnsått med erfarenheter kring kombinationen ZFS och Ubuntu. Och de flesta hänvisar direkt eller indirekt till FreeBSD. Varför skulle den kombinationen fungera bättre? Initiala tester jag gjort med Ubuntu/ZFS ser bra ut tycker jag.

Jag gillar LVM och jag gillar ZFS. I jämförelse, så ger dock LVM intryck att vara något till åren. Det är absolut inget fel på LVM men för en privatperson med en något mer ansträngd budget än ett företag eller myndighet och önskemål om backupmöjligheter, så är LVM inte tillfyllest.

Nytt upplägg:
- Två 60 GB SSD med

  • EFI bootpartition om 100 MB per disk

  • speglad rootpartition om 10 GB (RAID 1, /dev/md0)

  • en swappartition om 8 GB per disk

  • en ZIL-partition om 4 GB per disk (ZFS speglar denna)

  • resterande utrymme blir ZFS-cache

- 4x2 TB datadisk (ZFS, raidz varav en hot spare)

En tanke som har slagit mig efter att ha sökt på Internet efter hur att konfigurera "den bästa" hemservern är att de allra flesta verkar använda "out-of-the-box"-tekniken som finns tillgänglig under installationen av tex Ubuntu, dvs software RAID och/eller LVM. Och man tar en gammal hårddisk där OS får ligga, skapar en stor RAID5-blaffa av datadiskarna och formatterar denna. Jag tycker att det är lite obetänksamt men det är kanske ett tillräckligt bra upplägg. Själv vill jag ha åtminstone en replika på mitt digitala material. Det är anledningen till att jag tittar på DRBD. Men LVM:s bulkighet gör att jag väljer bort den kombinationen till förmån för ZFS. Och ZFS-send/-receive ger samma möjligheter.

Mvh
Davor

en kommentar ang. ditt projekt är att ZFS vill a direkttillgång till diskarna. att nyttja samma diskar för system och cache är alltså inte "rätt" sätt att gå tillväga. detta för att ZFS förutsätter direkttillgång till diskarna och allt vad det innebär. du bör alltså köra systemet på speglade diskar, två spelade SSD till ZIL samt en/flera enskilda SSD till L2ARC.

jag vet att denna lösningen blir dyrare än det du föreslagit, men tänkte bara kolla så att du är medveten om det.

Visa signatur

Arbetsstation: Macbook Pro Retina 15", Core i7 2,6 GHz, 16 GB RAM, 512 GB SSD
NAS: Synology 1812+ har numera ersatt min filserver
Blog: http://www.nickebo.net/
Twitter: @linuxprofessor
Övrigt: Linux/UNIX/OpenVMS, ZFS, lagring och systemövervakning

Permalänk
Medlem

Ni har inte prövat köra Debian med FreeBSD kerneln då? Debian kFreeBSD finns med FreeBSD 9 kerneln. Debian med FreeBSD kernel ger väl det bästa av båda världar?

Visa signatur

"Alla barn hade stabila datorer förutom Lidia för hon hade chipset från nvidia"

Permalänk
Medlem

Tack för din kommentar, Linuxprofessor.

Nej, jag var inte medveten om detta så jag kände mig tvungen att kolla upp detta lite mer. Jag har kommit fram till följande; ZFS behöver inte ha direkt tillgång till diskarna. Om ZFS har det så "tar den över" dessa och använder hårddiskarnas interna cache för eget bruk. Det finns fördelar med detta. ZFS har inga problem med att använda enstaka slices/partitioner så länge dessa inte används eller är låsta av tex OS el dyl. Inte heller för ZIL och/eller L2ARC.

Om möjligt, och det är ju inga större problem idag, så ska man köra systemet och ZIL på speglade diskar. Precis som du skriver. Oracle rekommenderar/tycker att det räcker med en ZIL som i storlek är hälften av det installerade fysiska minnet. Att dedikera SSD-diskar till ZIL och L2ARC hör till en enterpriselösning. I mitt fall så motsvarar 2x60GB SSD i spegel 120 GB RAM eller mer. I min lilla hemserver med 8 GB minne så blir den rekommenderade konfigurationen lite väl i överkant. Det skulle verkligen vara riktigt kul att få bygga en enterpriselösning men jag tror att partitioner för både ZIL och cache får duga.

Men det blir lite mer spännande nu; jag befinner mig ju också i den "knipan" att jag har beställt pryttlarna i en nätshop och nu när en hårddisk rapporterar felet "184 End-to-End error" och nätshopen tar tre arbetsdagar plus en helg att prestera en förbetald posttalong för retur. Kanske jag får en ersättningsdisk till helgen.

Och så är det ju en kostnadsfråga...

Mvh
Davor

Permalänk
Medlem

Nej. Jag visste inte att den kombon fanns. Spännande! Har du någon bra länk att rekommendera?

Mvh
Davor

Permalänk
Medlem

Finns ju infon på debians hemsida http://www.debian.org/ports/kfreebsd-gnu/ samt google.

Visa signatur

"Alla barn hade stabila datorer förutom Lidia för hon hade chipset från nvidia"

Permalänk
Medlem
Skrivet av x1zt:

Ni har inte prövat köra Debian med FreeBSD kerneln då? Debian kFreeBSD finns med FreeBSD 9 kerneln. Debian med FreeBSD kernel ger väl det bästa av båda världar?

Eller det sämsta av två världar? Nej skämt åsido jag gillar både debian och FreeBSD men ser inte riktigt fördelen att blanda ihop dem så.

Permalänk
Medlem
Skrivet av Fastidious:

Mjukvara

  • VPN-server (PPTP)

Varför inte OpenVPN? Säkrare och mer funktioner. Bättre multiplattformstöd.

Permalänk
Medlem
Skrivet av ronnylov:

Eller det sämsta av två världar? Nej skämt åsido jag gillar både debian och FreeBSD men ser inte riktigt fördelen att blanda ihop dem så.

Mycket möjligt, jag har inte prövat det själv. Men verkar lovande för folk som är intresserade av ZFS och är vana vid Debian/Ubuntu.

Visa signatur

"Alla barn hade stabila datorer förutom Lidia för hon hade chipset från nvidia"

Permalänk
Medlem
Skrivet av Zidern:

Jag sitter själv och migrerar min Ubuntu server till BSD, eftersom ZFS är så förb***at buggigt i Linux. Hela datorn totalkraschar efter att jag fört över ett par gig data bara, och det är verkligen inget skoj när man har en 3TB-disk med filer som ska dit. Och BSD tokvägrar såklart läsa disken av nån outgrundlig anledning.. Så det blir att springa fram och tillbaka till servern och trycka resetknappen, logga in igen och fortsätta kopieringen...

Ang. raid (eller zpool) på krypterade diskar så gillar inte ZFS det nåt vidare, det vill gärna ha direktaccess till disken utan nåt mellanliggande lager.

Jag har aldrig haft några problem med ZFS på Ubuntu. Haft 2 linuxburkar med ZFS på, hunnit med flera versioner av Ubuntu och uppdateringar av ZFS.
Aldrig stött på några problem.

Låter som du haft andra problem med hårdvaran eller annan mjukvara snarare än ZFS.

Skrivet av sunnis:

Varför inte OpenVPN? Säkrare och mer funktioner. Bättre multiplattformstöd.

Bättre multiplattformstöd? Nu har du nog blandat ihop något, t.o.m min mormors brödrost har stöd för PPTP.

Det är ju det som är nackdelen med OpenVPN är ju att det har dåligt stöd out of the box på det mesta.

Visa signatur

"Datorn har ju fan mer dragningskraft än jorden. Skulle jag ramla skulle jag hamna i datorstolen & inte på golvet."

Permalänk
Skrivet av davorv:

Tack för din kommentar, Linuxprofessor.

Nej, jag var inte medveten om detta så jag kände mig tvungen att kolla upp detta lite mer. Jag har kommit fram till följande; ZFS behöver inte ha direkt tillgång till diskarna. Om ZFS har det så "tar den över" dessa och använder hårddiskarnas interna cache för eget bruk. Det finns fördelar med detta. ZFS har inga problem med att använda enstaka slices/partitioner så länge dessa inte används eller är låsta av tex OS el dyl. Inte heller för ZIL och/eller L2ARC.

Om möjligt, och det är ju inga större problem idag, så ska man köra systemet och ZIL på speglade diskar. Precis som du skriver. Oracle rekommenderar/tycker att det räcker med en ZIL som i storlek är hälften av det installerade fysiska minnet. Att dedikera SSD-diskar till ZIL och L2ARC hör till en enterpriselösning. I mitt fall så motsvarar 2x60GB SSD i spegel 120 GB RAM eller mer. I min lilla hemserver med 8 GB minne så blir den rekommenderade konfigurationen lite väl i överkant. Det skulle verkligen vara riktigt kul att få bygga en enterpriselösning men jag tror att partitioner för både ZIL och cache får duga.

Men det blir lite mer spännande nu; jag befinner mig ju också i den "knipan" att jag har beställt pryttlarna i en nätshop och nu när en hårddisk rapporterar felet "184 End-to-End error" och nätshopen tar tre arbetsdagar plus en helg att prestera en förbetald posttalong för retur. Kanske jag får en ersättningsdisk till helgen.

Och så är det ju en kostnadsfråga...

Mvh
Davor

förstår hur du tänker ang. kostnad. ska jag va ärlig så är mitt eget system en extrem overkill

Skickades från m.sweclockers.com

Visa signatur

Arbetsstation: Macbook Pro Retina 15", Core i7 2,6 GHz, 16 GB RAM, 512 GB SSD
NAS: Synology 1812+ har numera ersatt min filserver
Blog: http://www.nickebo.net/
Twitter: @linuxprofessor
Övrigt: Linux/UNIX/OpenVMS, ZFS, lagring och systemövervakning

Permalänk
Medlem
Skrivet av JZ0NiC:

Bättre multiplattformstöd? Nu har du nog blandat ihop något, t.o.m min mormors brödrost har stöd för PPTP.

Vad är det för brödrost?

Skrivet av JZ0NiC:

Det är ju det som är nackdelen med OpenVPN är ju att det har dåligt stöd out of the box på det mesta.

Det kanske inte finns out-of-box men det finns definitivt klienter till det mesta.

Permalänk
Medlem
Skrivet av sunnis:

Vad är det för brödrost?

Det kanske inte finns out-of-box men det finns definitivt klienter till det mesta.

En sådan där metaforisk brödrost.
PPTP har ju ett större plattform stöd än OpenVPN vad det jag försökte poängtera. Inte tvärt om.

Visa signatur

"Datorn har ju fan mer dragningskraft än jorden. Skulle jag ramla skulle jag hamna i datorstolen & inte på golvet."

Permalänk
Skrivet av sunnis:

Varför inte OpenVPN? Säkrare och mer funktioner. Bättre multiplattformstöd.

Skrivet av JZ0NiC:

PPTP har ju ett större plattform stöd än OpenVPN vad det jag försökte poängtera. Inte tvärt om.

Vad man vill använda och anser är bra är ju givetvis helt valfritt och jag välkomnar alla tips. PPTP funkar kalas för allt jag behöver just nu, de flesta som kommer koppla upp sig mot servern är väl under windows och det fungerar ju utmärkt direkt från windows utan extra mjukvara.

Tack alla som joinat tråden! Jag har inte försvunnit, jag har följt med här men bara haft mycket att göra och dessutom funderat en hel del. Just nu är följande konfiguration aktuell för inköp:

Chassi: X-case RM420 4U rackmount V2 20xSATA / SAS +psu +rails
Moderkort: X9SCA-F-O Xeon E3 Serverkort ATX Intel C204, IPMI
CPU: Intel Xeon E3-1235 + nån kylare
RAM: 2 x DIMM DDR3 8GB 1333MHZ CL9 ECC DR X4
HDD: 8 x Seagate Barracuda 2TB (64MB / 7200rpm)
Controller: Någon med 2xSAS helst utan RAID och kompatibel med både linux och FreeBSD.

Någon som vet ett kort med 2st SAS för en rimlig peng? (alltså ej RAID, ska köra ZFS). Såg en på mullet med det stod utryckligen på den att den inte hittades i FreeBSD eller OpenSolaris. Annars var det perfekt pris, ca 1100kr. Liknande men med stöd av både ubuntu och FreeBSD vore nått. Behöver man fundera på om man ska ha SAS 1.0 eller SAS 2.0?

För den som hängt med i tråden har alltså storleken på diskarna minskat från 3TB till 2TB och antalet ökat från 6st till 8st. Tanken är då att köra 8st diskar på en controller och sedan vid expandering köpa samma setup igen med ytterligare ett kort. Sista planet á 4st diskar kör jag rakt på moderkortet har jag tänkt. Av dessa 4 tänkte jag ha 2st speglade för OS och sen 2st tomma om man vill temporärt plugga i diskar av någon anledning. Tanka över något, kolla nånting på en disk, etc.

Egentligen letar jag nu bara efter ett vettigt controller-kort alltså, annars är jag redo att köra. Hårdvarumässigt. Så när allt det är klart finns det ändå en hel massa godis att diskutera för de intresserade. Inte minst kryptering och säkerhet, men även en massa annat.

Permalänk
Medlem

Har läst en del om att folk på forumet köpt IBM M1015 kontrollerkort (LSI chip) och flashat om de till "IT-mode" vilket gör att det fungerar som en ren HBA och inte har något raidstöd längre.

Ska tydligen gå att hitta för ~600kr på ebay.

Visa signatur

"Datorn har ju fan mer dragningskraft än jorden. Skulle jag ramla skulle jag hamna i datorstolen & inte på golvet."

Permalänk
Medlem

Hur är det med kompabiliteten med 3 TB-diskar förresten? Kan det tänkas att vissa kontrollerkort har problem med dem (de som är lite äldre som tillverkats innan de fanns 3 TB diskar skulle ju kunna krångla)? Jag har diskar sedan 2008 i min filserver så det bör väl bli dags att börja byta ut de äldsta snart känns det som. Jag kör freebsd 9 i filservern.

Permalänk

Hej alla,

Blev oväntad paus i det intensiva serverbygget pga en hel massa jobb och annat. Ber om ursäkt, men jag kände inte att jag hade så mycket att tillägga under den tiden ändå. Jag vill dock nu meddela att alla beställningar är lagda nu, förutom CPU-fläkt, tips?

Chassi: X-case RM420 4U rackmount V2 (20 diskar)
PSU: Corsair 750W HX (modulärt)
Mobo: X9SCA-F-O Xeon E3 Serverkort ATX Intel C204, IPMI
CPU: Intel Xeon E3-1235
RAM: Samsung 2x8GB DDR ECC 1333MHz DR x8
HDD-controller: LSI SAS 9211-8i RAID Controller 6Gb/s PCI-Express
HDD: Seagate Barracuda 8x2TB (64MB / 7200rpm)

Det jag väntar på just nu är minnen och CPU. Beställde minnen tillsammans med CPU från Dustin först, men fick reda på idag (efter att ha väntat 2 veckor på minnena) att de utgått. Brukar vara väldigt nöjd med dustin, vet inte vad som hände. Beställde då minnen från Mullet istället, kanonbra service där. Fick supportsvar inom 2 min via mail ett par gånger och beställningen hanterades på några minuter den också. Kanon!

Jag vet inte vad folk har för erfarenhet av X-case men dom får underkänt av mig i service. Beställde chassi med PSU med för enkelhetens skull. Tänkte att jag skulle få rätt kontakter för matning av bakplan och allt utan att behöva tänka. Fick nått standard / gaming PSU eller nått monterat i chassit. Det är en molex till varje plan (5st), molex till fläktar, osv. PSUt hade 2 molex-kontakter som kunde dras till bakplanet, resten var SATA. Klart att det finns konverters och att man kan köra serie osv, men det är inte seriöst när man beställer ett PSU till ett chassi att man inte får ett med anpassade kontaktdon. Efter 2 veckors väntande har X-case fortfarande inte svarat på mitt mail i frågan på deras mail. Helt klart underkänt i kundbemötande och service. Däremot verkar det vara ett gediget chassi, även om jag inte har provat det än.

Jag är inställd på att testa Ubuntu server till en början, annars FreeBSD om det inte visar sig prestera vad jag tänkt mig.

Permalänk
Avstängd

Kommentarer.
LSI SAS kortet du har, är mycket bra. Funkar perfekt under Solaris och FreeBSD och är faktiskt det som Oracle själva använder, har jag för mig - lite osäker på det. Men, en IBM M1015 är faktiskt också ett LSI kort som kallas LSI 9220-8i med annat namn än LSI och IBM kortet kan man köpa för $90 från Ebay (vilket jag gjort). Man flashar om det till "IT-mode". Många kör det med ZFS och BSD eller Solaris/OpenSolaris.
http://www.servethehome.com/ibm-m1015-part-1-started-lsi-9220...

Om man ska vara petnoga så bör man använda t.ex. 4 eller 8 diskar för lagring, vilket innebär att om du kör raidz2 så bör du ha 8 diskar + 2 = 10 diskar totalt. Skälet är att ZFS gillar när det har 8 diskar för lagring pga ZFS lagrar 8 bytes i taget (eller nåt sånt). Om du kör 8 diskars raidz2, så betyder det att du kör 6 diskar för lagring + 2 diskar för redundans. När ZFS ska lagra data, så måste datat delas på 6, och då blir det halva bytes som lagras på olika diskar. Det går jämnt upp om ZFS får 8 diskar för lagring. Ska du köra raidz3 så kan du använda 8 diskar + 3 för redundans = 11 diskar totalt. Då lagras data snyggt på alla diskar och det går jämnt upp.

Det har precis släppts Ivy Bridge Xeon versioner av cpuerna, de kallas "v2" på slutet. Så du kan sikta på en E3-1235v2. Det går att uppgradera BIOS på det moderkortet till v2.0 så det stödjer Ivy Bridge Xeon cpuer. Om inte moderkortet redan levereras med BIOS v2.0 så måste du ha en vanlig SandyBridge Xeon för att kunna uppgradera BIOS, sen byter du till en Ivy Bridge xeon cpu.

Se till att minnena är obuffrade. Kör du registrerade RAM minnen, så kommer det inte att funka med ditt moderkort.

Vill du köra kryptering så är det enklaste att köra Solaris 11, som har inbyggd kryptering. S11 har dock en ZFS version som är modernast, så den är inte kompatibel med FreeBSD eller Linux ZFS versioner. Mao, om du skapar en ZFS raid med S11, och sen försöker byta till FreeBSD så kommer det inte funka att importera ditt ZFS raid.

Använd inte deduplication, du måste ha mer än 1GB RAM för varje TB disk. Men slå gärna på komprimering, det funkar klockrent och kan ofta öka prestandan betydligt i praktiken. Det går snabbare att läsa in 100KB och packa upp det i RAM, än att läsa in 200KB.

Jag skulle undvika Linux med ZFS, och istället köra FreeBSD eller en helt öppen OpenSolaris fork, som t.ex. Illumian som är Solaris kernel men med Debian user land, och Debian pakethantering. Eller OpenIndiana som är pure OpenSolaris fork - men helt öppen och community drivet
http://trochejen.blogspot.se/2012/02/illumian-debian-like-dis...

SSD diskar som skriv och läs cache är helt onödigt för en hemanvändare. Man är poweruser om man använder det, eller kör ett företag.

Du kan även köra FreeBSD/Solaris helt virtualiserat i ESXi, och sen göra pass through till LSI kortet och accessa diskarna direkt. Många gör det framgångsrikt, här är en how-to och en megatråd med många success stories:
http://hardforum.com/showthread.php?t=1573272

Permalänk
Skrivet av saddam:

Kommentarer.
Det har precis släppts Ivy Bridge Xeon versioner av cpuerna, de kallas "v2" på slutet. Så du kan sikta på en E3-1235v2. Det går att uppgradera BIOS på det moderkortet till v2.0 så det stödjer Ivy Bridge Xeon cpuer. Om inte moderkortet redan levereras med BIOS v2.0 så måste du ha en vanlig SandyBridge Xeon för att kunna uppgradera BIOS, sen byter du till en Ivy Bridge xeon cpu.

Bra idé! Avbokade CPUn, tänkte beställa en v2. Ska skicka serienummer till supermicro för att se vad det är för BIOS version. Borde väl dock gå bra med nån annan SandyBridge än Xeon med samma socket? Core i5 tex. Flickvännen har en sån (2500K).

Skrivet av saddam:

Se till att minnena är obuffrade. Kör du registrerade RAM minnen, så kommer det inte att funka med ditt moderkort.

Yes, inte helt lätt att hitta obuffrade ECC.

Skrivet av saddam:

Använd inte deduplication, du måste ha mer än 1GB RAM för varje TB disk. Men slå gärna på komprimering, det funkar klockrent och kan ofta öka prestandan betydligt i praktiken. Det går snabbare att läsa in 100KB och packa upp det i RAM, än att läsa in 200KB.

Ok, tack för tips!

Gällande OS så är jag ändå sugen att testa ZFS på Ubuntu. Berätta gärna om lite specifika nackdelar dock, jag vill veta så mycket som möjligt om vad folk upplever för problem. Detsamma gäller olika krypteringsmetoder och de features som de erbjuder.

Permalänk
Avstängd
Skrivet av Fastidious:

Bra idé! Avbokade CPUn, tänkte beställa en v2. Ska skicka serienummer till supermicro för att se vad det är för BIOS version. Borde väl dock gå bra med nån annan SandyBridge än Xeon med samma socket? Core i5 tex. Flickvännen har en sån (2500K).

Vet inte. Jag tror att alla de senaste moderkorten är v2.0 av BIOS, men du kanske får en äldre mammabräda?

Citat:

Gällande OS så är jag ändå sugen att testa ZFS på Ubuntu. Berätta gärna om lite specifika nackdelar dock, jag vill veta så mycket som möjligt om vad folk upplever för problem. Detsamma gäller olika krypteringsmetoder och de features som de erbjuder.

Ok, men ZFS på linux vet jag inte så mycket om. Läs på och se vilken ZFS lösning som verkar stabilast. Här får du nog fråga någon annan än mig.

Permalänk
Medlem

Har kört ZFS på linux 3+ år kanske? Haft 2 olika servrar och har fungerat väldigt bra, kört både ZFS-FUSE (rätt sölig prestanda) och ZFSonlinux, (väldigt bra fart). Bara kört på ubuntu och när jag hoppat mellan distar så har jag ominstallerat hela OSet.
fungerat väldigt smidigt att bara importera zfs volymen efter ominstallation.
Versions uppgraderingar av ZFS har inte heller varit något problem.

Det enda som bråkat är att ZFS volymen inte alltid monterars ordentligt under vissa versioner av ubuntu. Men man löser det enkelt med ett script som avmonterar för att sedan montera volumen igen.

Visa signatur

"Datorn har ju fan mer dragningskraft än jorden. Skulle jag ramla skulle jag hamna i datorstolen & inte på golvet."

Permalänk
Skrivet av JZ0NiC:

Har kört ZFS på linux 3+ år kanske? Haft 2 olika servrar och har fungerat väldigt bra, kört både ZFS-FUSE (rätt sölig prestanda) och ZFSonlinux, (väldigt bra fart). Bara kört på ubuntu och när jag hoppat mellan distar så har jag ominstallerat hela OSet.
fungerat väldigt smidigt att bara importera zfs volymen efter ominstallation.
Versions uppgraderingar av ZFS har inte heller varit något problem.

Tack för infon! Intressant. Jag funderade just på om jag skulle köra ZFSonLinux eller vad det skulle bli för något. Fler erfarenheter av detta välkomnas!

Mailade Supermicro med S/N på moderkortet jag köpte och det är BIOS V2, så det funkar fint med Ivy Bridge, så det blir det!