Permalänk
Medlem

Failover Cluster

Tjena!

Jag har gått i tankarna ett tag på att skaffa ett failover cluster för hemma labbet, inte för att jag behöver det utan för att det är roligt och jag lär mig något nytt.
Idag har jag en HP ProLiant DL360e G8 (LFF, med en gammal skitig 250gb HDD och en nyare WD RED 4TB HDD). Den har dubbla 460w psu:er men inga extra NIC:s. Servern virtualiserar pfSense, FreeNAS mfl. Jag kör Emby (mediaserver) som inte är virualiserad och tar filerna från freenas systemet då jag tappar mycket decode/encoding prestanda om jag skulle virutalisera Emby. FreeNAS:en används alltså som NAS i hemmet. Detta vill jag köra i klustret på samma sätt som idag om det är möjligt.

Borde jag köra min nuvarande server som en iSCSI host och skaffa två nya servrar med SFF lagring för SSD i båda med en 40Gbps QSFP länk mellan dem?
Räcker det med bara en extra server? Hur gör man då med iSCSI lagringen/hostningen?
Ge gärna exempel på hårdvara jag behöver med switchar osv. Jag är student så jag föredrar om priset inte är genom taket...

Hoppas det jag skrivit går att förstå annars är det bara att fråga

Permalänk

Du missade att berätta vilken mjukvaran du använder för virtualisering , men det spelar inte så stor roll just nu, nu är det ju bara generella frågor och svar .

Av det du beskriver som användningsområde har du egentligen inget behov av varken ssd eller QSFP.
SSD som os-disk är iofs inte så dumt om man vill separera os och lagring.

Vill du ha lite fart i nätet räcker 10gbe långt, det är inte så lätt att fylla ens en sån lina hemma och priserna är ändå rätt ok. Allt över 10gbe får väl fortfarande klassas som "vansinnigt dyrt"

Men en sak jag inte förstår. Du säger att du har en 250gb disk, och en 4tb, är det allt? När folk säger nas brukar det vara, typ mer

Men för att ta det från början, du virtualiserar pfSense och du funderar på att skapa ett cluster för failover.
Helt ok, men för att det ska funka behöver du ha något utanför som kopplar inkommande nät till båda servrarna för att det ska funka. Helt görbart men klöddigt. Min högst personliga åsikt är: Strunta i att clustra pfSense, se i stället till att ha aktuell backup så att du snabbt kan sätta upp en ny instans ifall något händer. Betydligt enklare :).

FreeNAS. inte riktigt designat för att köras i cluster så jag skulle strunta i det också. FreeNAS vill ha direkt access till diskarna och även om det går att lösa även det (typ dualchannel expanders) så är det onödigt. En FreeNAS installation är så liten så samma som med pfSense, det är enklare att sätta upp på nytt bara man har inställningarna sparade, och eftersom du kör det som VM är det ju ännu enklare att ha även backup på hela VM:en.

Nu var jag skittråkig och dissade allt du ville göra

Vilket naturligtvis inte ska stoppa dig från att göra vad du vill .

Det jag vill ha sagt är att pratar man om kluster och failover för att skapa någon sorts redundans bör man titta på hela kedjan.
Jag kör själv två servrar i kluster med blandade virtuella maskiner. Jag kör inte någon failover alls utan använder egentligen clustret till att få all administration i ett och samma gränssnitt vilket jag tycker är praktiskt. Jag kan flytta VM:ar mellan hostarna om jag vill och om jag hade satt upp nätverksbryggorna med samma funktion/namn på bägge skulle det kunna fungera sömlöst att flytta mellan trots att hårdvaran är helt olika. Men jag har valt att inte ha det så för att jag anser mig inte ha något behov av redundans på den nivån. Däremot all disklagring ligger på zfs mirror, där vill jag ha redundans .

Permalänk
Medlem
Skrivet av hjälpsam:

Du missade att berätta vilken mjukvaran du använder för virtualisering , men det spelar inte så stor roll just nu, nu är det ju bara generella frågor och svar .

Av det du beskriver som användningsområde har du egentligen inget behov av varken ssd eller QSFP.
SSD som os-disk är iofs inte så dumt om man vill separera os och lagring.

Vill du ha lite fart i nätet räcker 10gbe långt, det är inte så lätt att fylla ens en sån lina hemma och priserna är ändå rätt ok. Allt över 10gbe får väl fortfarande klassas som "vansinnigt dyrt"

Men en sak jag inte förstår. Du säger att du har en 250gb disk, och en 4tb, är det allt? När folk säger nas brukar det vara, typ mer

Men för att ta det från början, du virtualiserar pfSense och du funderar på att skapa ett cluster för failover.
Helt ok, men för att det ska funka behöver du ha något utanför som kopplar inkommande nät till båda servrarna för att det ska funka. Helt görbart men klöddigt. Min högst personliga åsikt är: Strunta i att clustra pfSense, se i stället till att ha aktuell backup så att du snabbt kan sätta upp en ny instans ifall något händer. Betydligt enklare :).

FreeNAS. inte riktigt designat för att köras i cluster så jag skulle strunta i det också. FreeNAS vill ha direkt access till diskarna och även om det går att lösa även det (typ dualchannel expanders) så är det onödigt. En FreeNAS installation är så liten så samma som med pfSense, det är enklare att sätta upp på nytt bara man har inställningarna sparade, och eftersom du kör det som VM är det ju ännu enklare att ha även backup på hela VM:en.

Nu var jag skittråkig och dissade allt du ville göra

Vilket naturligtvis inte ska stoppa dig från att göra vad du vill .

Det jag vill ha sagt är att pratar man om kluster och failover för att skapa någon sorts redundans bör man titta på hela kedjan.
Jag kör själv två servrar i kluster med blandade virtuella maskiner. Jag kör inte någon failover alls utan använder egentligen clustret till att få all administration i ett och samma gränssnitt vilket jag tycker är praktiskt. Jag kan flytta VM:ar mellan hostarna om jag vill och om jag hade satt upp nätverksbryggorna med samma funktion/namn på bägge skulle det kunna fungera sömlöst att flytta mellan trots att hårdvaran är helt olika. Men jag har valt att inte ha det så för att jag anser mig inte ha något behov av redundans på den nivån. Däremot all disklagring ligger på zfs mirror, där vill jag ha redundans .

Där jag tänkt att beställa servrarna ifrån säljer QSFP kort för ett lägre pris än andra kort med lägre hastigheter, har då förstås inte tänkt köra kopplingen via någon switch för då sticker priset upp i taket.

Ja jag har en 250GB hårddisk för OS mm. och 4TB disken som NAS. Det är lite, jag vet, men det räcker för mina ändamål än så länge.

Okej, jag får se hur jag gör då. Har du en separat NAS utanför ditt kluster eller virtualiserar du iSCSI lagringen innuti clustret?

Tack för svaret!!

Permalänk

Jag har en FreeNAS burk som bara agerar lagring. Jag kör ingen iSCSI utan mina andra servrar har lokal lagring för VM och sånt de behöver, sen sker bara backup till nas:en. Använder faktiskt samba till det, det är ju inte det snabbaste, men det blir så enkelt att komma åt från windows då .

VM:arna blir rätt små, en ubuntu server tar upp 2-3 gb, pfSense verkar ta under 1gb så man får plats med många även på en liten disk så man behöver inte så mycket i servern ändå.

Har 10gbe nät till nas och till den stora servern. På nas:et märker jag att det blir bättre flyt men på servern verkar det inte göra någon skillnad så den hade nog klarat sig utan.

Att bara lägga ihop ett par vanliga 1gb linor med LACP mellan nas och switch kan förbättra, hastigheten ökar inte men det kan gå flera paralellt så streamar man till flera klienter kan det säkert göra skillnad.

Jag har testat att streama två UHD videoströmmar över en 1gb lina och det blir inte så bra, men en UHD plus lite vanlig filkopiering funkar helt ok.

Permalänk
Medlem

Det beror på vilken nivå man vill ta det och vilka tjänster man kör. En del tjänster har stöd för klustring eller high availability (HA) i sig själva. Man kan också bygga HA med hjälp av sin hypervisor. Jag vet inte vilket sätt du tänkt göra det på men det finns för och nackdelar. Vill man ha minimalt med ner-tid kör man det på applikation/server-nivå eftersom man annars måste vänta på att den virtuella servern bootar upp på den andra fysiska hosten. Att köra det på hypervisor-nivå är resurseffektivare, enklare att konfigurera och kräver mindre licenser. Fast i sin tur kräver det dyrare licenser på hypervisorn.

När man bygger det med en hypervisor behöver man ha någon form av shared storage. Antingen ett SAN eller en NAS. Vill man inte ha en till burk finns lösningar likt HP VSA, vmware vsan osv. eller att man kör replikering. För att ett shared storage blir en single point of failure eller iaf att risken ska minska är det hårdvara som är byggd för att vara tillförlitlig med dubbla styrenheter och nätdelar. Men sådant är dyrt och oftast inget för en hemanvändare.

Permalänk
Medlem

Går det på något sätt att slippa ha en tredje enhet för lagring och bara hålla det till 2 servrar? Eller blir man tvungen att ha en tredje server för lagring?

Skickades från m.sweclockers.com

Permalänk
Medlem

Du behöver en lagring som båda enheterna kan nå även om en host dör.
Så du blir diskad med 2 servers.

Permalänk
Medlem
Skrivet av hugo0814:

Går det på något sätt att slippa ha en tredje enhet för lagring och bara hålla det till 2 servrar? Eller blir man tvungen att ha en tredje server för lagring?

Skickades från m.sweclockers.com

För att citera mig själv "Vill man inte ha en till burk finns lösningar likt HP VSA, vmware vsan osv." men de vill gärna ha tre noder eller minst ett vittne som kan avgöra vad som gäller ifall de tappar kontakten med varandra.

Kör man proxmox tror jag det finns något liknande som heter ceph.

Sedan som jag också skrev är ju att med pfsense sätta upp två instanser och köra HA. Då behöver du ingen delad lagring. Klustrar man två Windows-servrar behöver man delad lagring vill jag minnas.

Permalänk
Medlem

Okej, tack för svaren! Får se hur jag gör då.

Permalänk

Som jocke skrev, allt handlar om vad man vill uppnå.
(det är som vi brukar tjata på våra utbildningar - mål och syfte kommer först, har man det tydligt klart för sig innan man börjar bygga kommer man med största sannolikhet att faktiskt ha något som är bra nära när man är klar ) .

Om målet är att till exempel ens plex/emby etc ska finnas tillgänglig för en själv och övriga familjen medan man meckar och uppgraderar så behöver man ju inte ha automatisk failover utan man kan se till så att VM:en är syncad och sen starta upp "tvåan" medan man kan ta "ettan" offline för att göra saker med. Den nivån behöver ju inte vara så komplicerad.

Men har man som enoch ett företag och kanske hellre vill uppnå en helautomatisk failover på "allt", från ingående lina till lagring och alla tjänster. Ja det ju kräver en annan nivå av planering (och en annan plånbok).

På blocket finns just nu två ML350 G9 för 9ksek eller nåt sånt. De skulle kunna vara ett bra exempel på en plattform som skulle kunna rymma disk nog för en replikerad lagringslösning och kunna leverera bra. Vad slutsumman med alla diskar, disk cages och annat som behövs kan vi kanske skippa, men borde funka bra.

Fruktad överkurs för de allra flesta hemmalabb så klart . Men ML350 är en rymlig och bra lösning, en DL380 med båda disk cages rymmer också en hel del. De är båda trevliga att jobba med (tycker jag själv alltså).

Proxmox är rätt trevligt, jag har inte själv provat replikerad lagring, ceph, men mjukvaran är fri så det kostar ju bara tid att testa (om man har något att testa på så klart). Proxmox känns stabilt och har inte orsakat mig några problem under tiden jag labbat med det. VMWare är ju mer sofistikerat och är mer lättarbetat, men gratisversionen är rätt begränsad och sen så försvinner stödet för äldre hårdvara i rask takt.
Proxmox går ju i teorin köra på allt som har stöd för debian och som har VT-flaggorna i CPU:n.