Proxmox, PfSense, Nginx - Ny server

Permalänk
Medlem

Tycker det är dags att flika in att proxmox innehåller ceph som kan ge redundant storage på ett bra sätt i ett ha-kluster om än med 2x+ diskkonsumtion.

Permalänk
Medlem
Skrivet av enoch85:

Här kommer en uppdaterad bild. Jag gjorde ingen ram kring DMZ för jag är lite osäker på vart backupen ska vara - i DMZ eller utanför? Kan tilläggas att NASen går på LAN i nuläget men hämtar även backuper från externa servrar på WAN.

Som ni även kan se så är det NGINXen som skyfflar trafiken till alla VMs för att jag bara har ett publikt IP.

http://i.imgur.com/hB2Vc7x.png

Nånstans här ska Plex in också, vet inte vart dock.

auto lo iface lo inet loopback iface eth0 inet manual iface eth1 inet manual iface eth2 inet manual iface eth3 inet manual iface eth4 inet manual iface eth5 inet manual #MGMT auto vmbr0 iface vmbr0 inet static address 192.168.1.x netmask 255.255.255.0 gateway 192.168.1.1 bridge_ports eth0 bridge_stp off bridge_fd 0 #WAN pfSense auto vmbr1 iface vmbr1 inet manual bridge_ports eth1 bridge_stp off bridge_fd 0 #LAN pfSense auto vmbr2 iface vmbr2 inet manual bridge_ports eth2 bridge_stp off bridge_fd 0 #DMZ pfSense auto vmbr3 iface vmbr2 inet manual bridge_ports eth3 bridge_stp off bridge_fd 0

Utgår jag från bilden jag citerade så blir upplägget följande,

Pfsense eth1 och eth2 passthrough

DMZ

Nginx VM vmbr3

rented VPS vmbr3

solve-it vmbr3

demo vmbr3

owncloud vmbr3

techandme vmbr3

LAN

plex vmbr2

NAS kasta in en OpenMediaVault VM och passtrhouga plex disken på den, vmbr2
Extern nas kopplas till nätverksporten eth3 (då jag antar att du kör backuper till denna med script på servar i dmz)

Angående din egen router så är det oklart hur glad den är att ha en intern adress som WAN, borde dock gå utan problem

Skrivet av enoch85:

Idag kör jag allt på en ASUS AC66U, och det har fungerat klockrent. Anledningen till att jag ville behålla 192.168.X.X är mest för bekvämligheten att slippa ändra på allt i alla noder som redan är konfigurerade mot den router.

Du kommer få ha att göra med dubbla nat. Först översätter den ipadress från intern nod till asusrouterns ipadress sedan över till pfSense ipadress. Jag hade rekommenderat att bara köra en switch, det kommer bli lättare.

Angående 4g Routern kommer den behöva kopplas via CARP och det försvårar konfigurationen avsevärt när du har en VM. Jag vet att pfSense har inställningar för CARP failover men är osäker på om inte bara det är för ett pfSense HA cluster. Där är jag lika grön som du tyvärr.

Skrivet av miklon:

Mycket prat om SAN här, varför skulle det behövas ett SAN i den här uppsättningen? Vill man fläska på ordentligt så kan man köpa en NAS ur Synologys proffssortiment för 10 000 kr, då får man dubbla 10 GbE och 8 diskplatser. Det borde räcka och bli över. Vill man vara säker så köper man två och kopplar ihop i HA, det är fortfarande ganska långt från en halv miljon.

Vi pratar ju inte direkt om att snurra 10 000 VMar på den här lösningen.

Han nämnde HA cluster i OP.

Skrivet av PowerNet:

Där har du helt fel.
Det finns bra backuplösningar till vSphere med, oavsett version.

Och nej, ett SAN för under 100k är inte ett glorifierad NAS.
Och jo, nu för tiden så har både rackservrar och SAN enheter blivit tysta mot tidigare, så det är inte att "bara att glömma".

Försök backa upp ett ESXi Free med Veem t.ex, återkom sedan när du lärt dig att du har fel den hårda vägen.

Du får tro vad du vill angående SAN, det är väsentlig skillnad på en server och ett SAN, bara att populera diskar ordentligt går på riktiga mängder pengar och 15k RPM diskar är långt ifrån tysta eller svala vid belastning.

http://www8.hp.com/us/en/products/server-hard-drives/product-...

Ska du ha 25-30 sådana i ditt SAN så spränger du "under" 100k budgeten ganska fort. detta utan det faktiska SANet inräknat.

Visa signatur

Every mammal on this planet instinctively develops a natural equilibrium with the surrounding environment; but you humans do not. Instead you multiply, and multiply, until every resource is consumed.
There is another organism on this planet that follows the same pattern... a virus.
CITERA CITERA CITERA

Permalänk
Medlem
Skrivet av mini-ryttge:

Han nämnde HA cluster i OP.

Det går fortfarande att ha en NAS som shared storage, eller två st NAS i HA-konfiguration om man är rädd för haveri.

Permalänk
Medlem

Även om HA inte är intressant förtillfället så låter ceph intressant. Verkar vara som HP vsa eller liknande.

Gör om asus-routern till ren accesspunkt och kör ingen nat i den.

Angående redundans med 4g. Visst kan man nat:a ut sina maskiner på både wan1 och wan2. Sedan att man har en agent som jobbar mot typ mittip.se och uppdaterar dyndns med den adress som syns publikt?

Permalänk
Avstängd
Skrivet av mini-ryttge:

Försök backa upp ett ESXi Free med Veem t.ex, återkom sedan när du lärt dig att du har fel den hårda vägen.

Du får tro vad du vill angående SAN, det är väsentlig skillnad på en server och ett SAN, bara att populera diskar ordentligt går på riktiga mängder pengar och 15k RPM diskar är långt ifrån tysta eller svala vid belastning.

http://www8.hp.com/us/en/products/server-hard-drives/product-...

Ska du ha 25-30 sådana i ditt SAN så spränger du "under" 100k budgeten ganska fort. detta utan det faktiska SANet inräknat.

Jag vet hur man gör, men vet du? Nej, tydligen vet du inte det för då skulle du inte svarat och framställt dig själv som okunnig/icke vetande och tro att "veem" är ända sättet att ta backuper på.

Jag tror inte, då jag vet att de är tysta(re)(än tidigare) och inte kostar så mycket som du tror.

Klart att du kan få det att dra iväg om du väljer de dyraste diskarna, och sämsta leverantören som det går (HP kör specialdiskar, så inget annat fungerar).

Bättre att köpa ex Dell, där det fungerar att köpa diskar från vilken leverantör som helst (så länge de är testade om man vill ha driftgaranti) mot HP där det är special rakt av.

Och så väljer man 7200 rpm diskar istället för 15k diskar, så får man betydligt mer utrymme till mycket lägre kostnad, och inte sämre för det.

Så nej, ett SAN kostar inte "över 100k" i standard konfig. Och som sagt, man kan bygga ett SAN av en standard 2U rackserver (så man får fler diskplatser mot 1U) och lite diskar så kommer man undan med bra pris/prestanda för hemmabruk.

Och att dra upp att SAN kostar "över 100k" är helt ointressant för en privatperson, som knappast köper sprillans nytt utan köper ett begagnat till en början om en verksamhet ska byggas upp.

Visa signatur

System: Corsair Obsidian 550D Midi Tower Svart || Corsair AX 850W PSU || Intel® Core i7-3770K Processor || ASUS P8P67-M || 2 x Intel® SSD 520 Series 180GB || Gigabyte GeForce GTX 670 2GB PhysX CUDA ||

Permalänk
Medlem
Skrivet av PowerNet:

Jag vet hur man gör, men vet du? Nej, tydligen vet du inte det för då skulle du inte svarat och framställt dig själv som okunnig/icke vetande och tro att "veem" är ända sättet att ta backuper på.

Jag tror inte, då jag vet att de är tysta(re)(än tidigare) och inte kostar så mycket som du tror.

Klart att du kan få det att dra iväg om du väljer de dyraste diskarna, och sämsta leverantören som det går (HP kör specialdiskar, så inget annat fungerar).

Bättre att köpa ex Dell, där det fungerar att köpa diskar från vilken leverantör som helst (så länge de är testade om man vill ha driftgaranti) mot HP där det är special rakt av.

Och så väljer man 7200 rpm diskar istället för 15k diskar, så får man betydligt mer utrymme till mycket lägre kostnad, och inte sämre för det.

Så nej, ett SAN kostar inte "över 100k" i standard konfig. Och som sagt, man kan bygga ett SAN av en standard 2U rackserver (så man får fler diskplatser mot 1U) och lite diskar så kommer man undan med bra pris/prestanda för hemmabruk.

Och att dra upp att SAN kostar "över 100k" är helt ointressant för en privatperson, som knappast köper sprillans nytt utan köper ett begagnat till en början om en verksamhet ska byggas upp.

Veem är givetvis inte det enda sättet att ta backup men APIn är fortfarande Read Only på ESXi free, vill du sedan sitta och köra script på script för att få en halvdan koll på om backuperna har gått ordentligt är det upp till dig. Eller så betalar man bara licensavgiften och kan köra vettiga backuplösningar. Gå till valfri verksamhet och säg att dom kan spara 10k om året om dem skiter fullständigt i integriteten på sina backups och se hur positiva dem är.

Dell har även dem egen firmware på sina diskar, då jag har bytt ett antal diskar i SAN så vet jag att Dell inte är bättre än HP i den frågan, 7.2k RPM SAS diskar är förhållandevis slöa om du ska ha gäng VM's och 3.5" 7200 SAS är inte heller gratis, ganska långt ifrån. ( Du får inte i närheten av SATA priser, SAS diskar är alltid flera gånger dyrare än sata SSD i pris/gig. Men du kanske tänkte några NAS sata diskar i ditt SAN, som inte alls är ett glorifierat NAS.

Bygga ett eget SAN med ett två U chassi, du är inte allvarlig? Igen gå till valfri verksamhet och säg att dem kan spara ett par kronor på istället bygga en egen SAN om dom skiter i redundanta Hot Swap diskcontrollers och hela jävla IT miljön måste ner om en pajar.

Bara för att du kan köra ISCSI på ett NAS så blir det inte ett SAN.

Sure kör du ett begagnat SAN som är end of life och end of warranty i en produktionsmiljö. Låter som härliga tider.

Bara för något är tystare än förrut så betyder inte det att det är tyst.

Jag hoppas att du inte jobbar som en IT konsult, det hade varit roligt att se.

Är det något annat så ta det i PM, vi skräpar bara ner denna tråden men ovesäntliga frågor, varken SAN eller ESXi är inte längre på tal för TS.

Visa signatur

Every mammal on this planet instinctively develops a natural equilibrium with the surrounding environment; but you humans do not. Instead you multiply, and multiply, until every resource is consumed.
There is another organism on this planet that follows the same pattern... a virus.
CITERA CITERA CITERA

Permalänk
Medlem
Skrivet av aluser:

Tycker det är dags att flika in att proxmox innehåller ceph som kan ge redundant storage på ett bra sätt i ett ha-kluster om än med 2x+ diskkonsumtion.

Jag har kikat på Ceph faktiskt, men bara som hastigast. Vad är de största fördelen med Ceph? Kan man inte köra snapshots utan det t.ex?

Skrivet av mini-ryttge:

NAS kasta in en OpenMediaVault VM och passtrhouga plex disken på den, vmbr2
Extern nas kopplas till nätverksporten eth3 (då jag antar att du kör backuper till denna med script på servar i dmz)

Varför ska jag ha min NAS i en VM när den är fristående (fysisk enhet) med eget interface? Används i vilket fall som helst bara till backup via SSH så jag besöker inte interfacet ändå förutom vid FW updates.

Skrivet av mini-ryttge:

Angående din egen router så är det oklart hur glad den är att ha en intern adress som WAN, borde dock gå utan problem
Du kommer få ha att göra med dubbla nat. Först översätter den ipadress från intern nod till asusrouterns ipadress sedan över till pfSense ipadress. Jag hade rekommenderat att bara köra en switch, det kommer bli lättare.

Intern WAN address, nu hänger jag inte med? Routern är tänkt att agera accessspunkt i LANet för alla Wifi i mitt privata nätverk. Den ska ingå i adresspoolen utanför mitt DMZ, eller har jag missat nått nu? När du säger switch, menar du att jag skulle köpa en fysisk switch till då, eller att routern ska agera switch? Eller räknar du Pfsensen och routern som två swithcar?

Skrivet av mini-ryttge:

Angående 4g Routern kommer den behöva kopplas via CARP och det försvårar konfigurationen avsevärt när du har en VM. Jag vet att pfSense har inställningar för CARP failover men är osäker på om inte bara det är för ett pfSense HA cluster. Där är jag lika grön som du tyvärr.

Vad är det som gör Carp svårt? Är det inte bara att koppla in usb dongeln via USB och sen berätta för Pfsense att den ska använda den som failover, ungefär som man kan göra med lite mer avancerade hemmaroutrar idag?

EDIT: Läste på lite om CARP. Det är ungefär såhär det kommer att se ut va?

Där varje Internet ISP är mitt vanliga WAN och det andra min 4G dongel?

Tagit härifrån: http://blog.thedarkwinter.com/2015/03/pfsense-ha-hardwaredevi...

Skrivet av jocke92:

Angående redundans med 4g. Visst kan man nat:a ut sina maskiner på både wan1 och wan2. Sedan att man har en agent som jobbar mot typ mittip.se och uppdaterar dyndns med den adress som syns publikt?

Det var lite det jag tänkt om det är möjligt. Se tidigare inlägg där jag skriver om DynDNS.

Visa signatur

Citera för svar

Stora Owncloud/Nextcloud-tråden: http://www.sweclockers.com/forum/122-server/1212245-officiell...
Jobb: Datacenter Manager
Grundare: https://www.hanssonit.se

Permalänk
Skrivet av PowerNet:

Jag vet hur man gör, men vet du? Nej, tydligen vet du inte det för då skulle du inte svarat och framställt dig själv som okunnig/icke vetande och tro att "veem" är ända sättet att ta backuper på.

Jag tror inte, då jag vet att de är tysta(re)(än tidigare) och inte kostar så mycket som du tror.

Klart att du kan få det att dra iväg om du väljer de dyraste diskarna, och sämsta leverantören som det går (HP kör specialdiskar, så inget annat fungerar).

Bättre att köpa ex Dell, där det fungerar att köpa diskar från vilken leverantör som helst (så länge de är testade om man vill ha driftgaranti) mot HP där det är special rakt av.

Och så väljer man 7200 rpm diskar istället för 15k diskar, så får man betydligt mer utrymme till mycket lägre kostnad, och inte sämre för det.

Så nej, ett SAN kostar inte "över 100k" i standard konfig. Och som sagt, man kan bygga ett SAN av en standard 2U rackserver (så man får fler diskplatser mot 1U) och lite diskar så kommer man undan med bra pris/prestanda för hemmabruk.

Och att dra upp att SAN kostar "över 100k" är helt ointressant för en privatperson, som knappast köper sprillans nytt utan köper ett begagnat till en början om en verksamhet ska byggas upp.

Huawei är riktigt trevligt faktiskt. Går att få fina priser på den minsta lådan där.

Visa signatur

..:: Workstation ::.. ..:: Asus P8Z77-v LX ::.. ..:: MSI GTX1060 6GB ::.. ..:: i5 3450 Ivy Bridge /w Antec KÜHLER H2O 620 Sluten Vattenkylning ::.. ..:: Corsair 16GB DDR3 600MHz/CL9/VENG ::.. ..:: NoName 650W ::.. ..:: Dell 24" 2408WFP ::.. ..:: Server ::.. ..:: AMD ..:: FX-8320 ::.. ..:: 16GB ::.. ..:: XFX HD6450 ::.. ..::250GB SSD Samsung 840 EVO::.. ..:: 3x 2TB wd black ::.. ..:: VCP6-DCV ::.. ..:: vmware esxi 6.7 ::..

Permalänk
Skrivet av enoch85:

Jag har kikat på Ceph faktiskt, men bara som hastigast. Vad är de största fördelen med Ceph? Kan man inte köra snapshots utan det t.ex?

Varför ska jag ha min NAS i en VM när den är fristående (fysisk enhet) med eget interface? Används i vilket fall som helst bara till backup via SSH så jag besöker inte interfacet ändå förutom vid FW updates.
Intern WAN address, nu hänger jag inte med? Routern är tänkt att agera accessspunkt i LANet för alla Wifi i mitt privata nätverk. Den ska ingå i adresspoolen utanför mitt DMZ, eller har jag missat nått nu? När du säger switch, menar du att jag skulle köpa en fysisk switch till då, eller att routern ska agera switch? Eller räknar du Pfsensen och routern som två swithcar?

Vad är det som gör Carp svårt? Är det inte bara att koppla in usb dongeln via USB och sen berätta för Pfsense att den ska använda den som failover, ungefär som man kan göra med lite mer avancerade hemmaroutrar idag?

EDIT: Läste på lite om CARP. Det är ungefär såhär det kommer att se ut va? http://3.bp.blogspot.com/-bILc-WOIKvQ/VQxCg6CfWlI/AAAAAAAAAD4/gPAp36uRU-c/s1600/pfsense_ha_dual_sw.png

Där varje Internet ISP är mitt vanliga WAN och det andra min 4G dongel?

Tagit härifrån: http://blog.thedarkwinter.com/2015/03/pfsense-ha-hardwaredevi...

Det var lite det jag tänkt om det är möjligt. Se tidigare inlägg där jag skriver om DynDNS.

Subneta länknätet till en /30 så är de bara två adresser mellan de två pfsense-devices.

Du frågade om fencing. Vad jag menar med fencing är att om en fysisk host går sönder så ska den stängas ned och maskinerna failas över automatiskt och inte hamna mittemellan eller att båda servrarna blir "master" i ha-klustret.

Det kan ställa till det nått så otroligt mycket.

Det räcker helt klart med två maskiner i kluster, men den minsta minimala för produktion är enligt min åsikt tre fysiska likadana maskiner för att alltid ha en maskin att flytta vms till då undviker man också problem vad gäller fencing.

Nu vet inte jag vilken skala du ska hosta grejer på men om de börjar bli väldigt mycket trafik och annat så är det helt klart bättre att hyra några U i en colocationhall.

Vad gäller kommersiell verksamhet på ett privatabbonemang så är inte det heller helt bra eftersom att det är inte tillåtet Och dns och mail port oftast är blockerad.

Nu blev det lite offtopic men detta kanske du vet redan.
//Tobias

Visa signatur

..:: Workstation ::.. ..:: Asus P8Z77-v LX ::.. ..:: MSI GTX1060 6GB ::.. ..:: i5 3450 Ivy Bridge /w Antec KÜHLER H2O 620 Sluten Vattenkylning ::.. ..:: Corsair 16GB DDR3 600MHz/CL9/VENG ::.. ..:: NoName 650W ::.. ..:: Dell 24" 2408WFP ::.. ..:: Server ::.. ..:: AMD ..:: FX-8320 ::.. ..:: 16GB ::.. ..:: XFX HD6450 ::.. ..::250GB SSD Samsung 840 EVO::.. ..:: 3x 2TB wd black ::.. ..:: VCP6-DCV ::.. ..:: vmware esxi 6.7 ::..

Permalänk
Avstängd
Skrivet av mini-ryttge:

Veem är givetvis inte det enda sättet att ta backup men APIn är fortfarande Read Only på ESXi free, vill du sedan sitta och köra script på script för att få en halvdan koll på om backuperna har gått ordentligt är det upp till dig. Eller så betalar man bara licensavgiften och kan köra vettiga backuplösningar. Gå till valfri verksamhet och säg att dom kan spara 10k om året om dem skiter fullständigt i integriteten på sina backups och se hur positiva dem är.

Dell har även dem egen firmware på sina diskar, då jag har bytt ett antal diskar i SAN så vet jag att Dell inte är bättre än HP i den frågan, 7.2k RPM SAS diskar är förhållandevis slöa om du ska ha gäng VM's och 3.5" 7200 SAS är inte heller gratis, ganska långt ifrån. ( Du får inte i närheten av SATA priser, SAS diskar är alltid flera gånger dyrare än sata SSD i pris/gig. Men du kanske tänkte några NAS sata diskar i ditt SAN, som inte alls är ett glorifierat NAS.

Bygga ett eget SAN med ett två U chassi, du är inte allvarlig? Igen gå till valfri verksamhet och säg att dem kan spara ett par kronor på istället bygga en egen SAN om dom skiter i redundanta Hot Swap diskcontrollers och hela jävla IT miljön måste ner om en pajar.

Bara för att du kan köra ISCSI på ett NAS så blir det inte ett SAN.

Sure kör du ett begagnat SAN som är end of life och end of warranty i en produktionsmiljö. Låter som härliga tider.

Bara för något är tystare än förrut så betyder inte det att det är tyst.

Eller så kör man en backuplösning som fungerar utan att köpa licens.
Och nej, Dell är betydligt bättre än HP på den fronten, med betydligt lägre priser. Och du jämför SAS SSD mot SATA/SAS hårddiskar?..... Snacka om att jämföra äplen och päron...
Och 7200 rpm diskar räcker gott för lagring, stor cache hjälper till, om man nu inte har väl uppbyggt bolag med god lönsamhet och köper sprillans ny lagring och går all in på SSD.
Sluta säg "glorifierad nas" för ett SAN är ett SAN, oavsett hur det är uppbyggt egentligen.
"SANs are primarily used to enhance storage devices, such as disk arrays, tape libraries, and optical jukeboxes, accessible to servers so that the devices appear to the operating system as locally attached devices."

Ex ISCSI ansluten lagring, sedan kan själva enheten vara uppbyggd på olika sätt, ex köpt SAN från ex Dell, HP, NetApp eller byggd på rackserver och egen konfig.

"Sure kör du ett begagnat SAN som är end of life och end of warranty i en produktionsmiljö. Låter som härliga tider."

Snacka om att inte hänga med.... För TS del (eller för vilket nystartat bolag/verksamhet som hellst inom hosting) så köper man inte sprillans nytt i början, dels för att man måste bygga upp verksamheten och få intäkter och då inte satsa för mycket "i sjön" innan man vet att det bär sig/blir inkomster.
Finns inget fel att köra äldre hårdvara, och mycket hårdvara som är äldre är inte EOL heller, utan stöds av tillverkare än om man så vill.

Och jo, jämför man en rackserver ur ex HP Proliant 320 GEN 3 säg mot GEN8 så är de betydligt tystare, och är som sagt så tysta att de om man vill kan ligga på ett skrivbord i ett kontor och inte störa mer än en vanlig desktop/laptop.
ta sedan ex Dell PowerEdge 1950II (GEN2) och ställ mot 1950III (GEN3) så är det bara mellan de revisionerna stor skillnad.

Lika så med SAN enheter, så är de betydligt tystare nu än tidigare.

Så kom tillbaka den dagen du har koll på vad du svarr i för tråd, och koll på hårdvaran.
Och inte tror att en ny verksamhet/under uppbyggnad köper sprillans ny hårdvara i onödan.

Skrivet av tjossanmannen:

Huawei är riktigt trevligt faktiskt. Går att få fina priser på den minsta lådan där.

Precis!
Finns fler leverantörer med bra priser, och för TS del så är det inte nytt som gäller, utan äldre hårdvara som är 3-5 år vilket kommit ner i bra pris.

Visa signatur

System: Corsair Obsidian 550D Midi Tower Svart || Corsair AX 850W PSU || Intel® Core i7-3770K Processor || ASUS P8P67-M || 2 x Intel® SSD 520 Series 180GB || Gigabyte GeForce GTX 670 2GB PhysX CUDA ||

Permalänk
Medlem

Tack för all svar! Mycket nyttigt som jag ska utforska ytterligare, det uppskattas.. Det visade sig att det tar tid att få alla delar till servern, men när dem kommer så blir det nog några flera posts här.

Och @tjossanmannen, det är liten skala vi pratar om. Typ 20 MAX.

Visa signatur

Citera för svar

Stora Owncloud/Nextcloud-tråden: http://www.sweclockers.com/forum/122-server/1212245-officiell...
Jobb: Datacenter Manager
Grundare: https://www.hanssonit.se

Permalänk
Medlem

Ok, nu börjar det dra ihop sig. Sista delen till servern kommer nu i nästa vecka.

Jag har bestämt mig för att köra med OPNsense ch har fått bra kontakt med @Danne som har hjälpt mig förstå en hel del, samt även kommer hjälpa mig med att sätta upp Vsphere när alla delar är på plats.

Dock har det uppstått lite frågor längs vägen. Det här med DMZ... Varför bör jag ha saker utanför min brandvägg? Jag har hört att det är praxis att sätta upp alla webservrar (mina VMs) i DMZ för att vid en attack så ska de inte nå mitt LAN, men å andra sidan så når de ju mitt LAN om det vill det iaf. Är det så att en DMZ minskar risken för attack mot mitt LAN, men samtidigt ökar risken för mina webservrar, och isf, varför inte bara sätta mina webservrar i mitt LAN bakom brandväggen?

Kan det inte vara en bra idé att t.ex. sätta upp en server i DMZ vars enda syfte är att vara en nod i DMZ, alltså inte fylla någon egentlig funktion..? Typ en server med en index.html fil bara, som är publik mot internet.

Jag vore tacksam om jag kunde få lite mer klarhet i nätverksbiten då jag aldrig kört med DMZ förut. Samt så är jag lite fundersam kring VLAN oxå. Jag vill att "mina" VMs ska nå varandra internt på 192.168.X.X adressen, men inte de VPSer jag hostar, de ska vara separata. Hur gör jag här?

Tacksam för svar!

Visa signatur

Citera för svar

Stora Owncloud/Nextcloud-tråden: http://www.sweclockers.com/forum/122-server/1212245-officiell...
Jobb: Datacenter Manager
Grundare: https://www.hanssonit.se

Permalänk
Medlem

Med DMZ har du inte sakerna utanför din brandvägg. Men det är en egen zon som har lägre säkerhet eller snarare är utsatt för en högre risk än dina vanliga datorer i nätverket. Om någon tar över en server i ditt DMZ kommer den inte åt sakerna i ditt vanliga nät.

Det du tänker på med html-filen är en honeypot, vilket i ditt fall skulle vara en riktig owncloud fast som du inte använde till något, där du lockade besökare eller bottar. Sedan övervakar man och ser vilka som tar sig dit regelbundet. De som sedan gör upprepade försök skulle automatiskt kunna blockeras mot dina vanliga servrar med något script.

Permalänk
Medlem
Skrivet av jocke92:

Med DMZ har du inte sakerna utanför din brandvägg. Men det är en egen zon som har lägre säkerhet eller snarare är utsatt för en högre risk än dina vanliga datorer i nätverket. Om någon tar över en server i ditt DMZ kommer den inte åt sakerna i ditt vanliga nät.

Det du tänker på med html-filen är en honeypot, vilket i ditt fall skulle vara en riktig owncloud fast som du inte använde till något, där du lockade besökare eller bootar. Sedan övervakar man och ser vilka som tar sig dit regelbundet. De som sedan gör upprepade försök skulle automatiskt kunna blockeras mot dina vanliga servrar med något script.

Tack för svar!

Det är alltså en bra idé att sätta samtliga mina webservrar i DMZ? Jag tänkte mer att man kan skydda sig internt med VLAN, alltså angriper dom en server så kan dom inte nå nästa server eller resterande nätverk.

Visa signatur

Citera för svar

Stora Owncloud/Nextcloud-tråden: http://www.sweclockers.com/forum/122-server/1212245-officiell...
Jobb: Datacenter Manager
Grundare: https://www.hanssonit.se

Permalänk
Medlem
Skrivet av enoch85:

Tack för svar!

Det är alltså en bra idé att sätta samtliga mina webservrar i DMZ? Jag tänkte mer att man kan skydda sig internt med VLAN, alltså angriper dom en server så kan dom inte nå nästa server eller resterande nätverk.

Så länge du inte har mycket kommunikation mellan servrarna kan du göra ett DMZ för varje server. I en del hypervisors kan man också sätta brandväggsregler på varje virtuell maskin

Permalänk
Avstängd
Skrivet av enoch85:

Ok, nu börjar det dra ihop sig. Sista delen till servern kommer nu i nästa vecka.

Jag har bestämt mig för att köra med OPNsense ch har fått bra kontakt med @Danne som har hjälpt mig förstå en hel del, samt även kommer hjälpa mig med att sätta upp Vsphere när alla delar är på plats.

Dock har det uppstått lite frågor längs vägen. Det här med DMZ... Varför bör jag ha saker utanför min brandvägg? Jag har hört att det är praxis att sätta upp alla webservrar (mina VMs) i DMZ för att vid en attack så ska de inte nå mitt LAN, men å andra sidan så når de ju mitt LAN om det vill det iaf. Är det så att en DMZ minskar risken för attack mot mitt LAN, men samtidigt ökar risken för mina webservrar, och isf, varför inte bara sätta mina webservrar i mitt LAN bakom brandväggen?

Kan det inte vara en bra idé att t.ex. sätta upp en server i DMZ vars enda syfte är att vara en nod i DMZ, alltså inte fylla någon egentlig funktion..? Typ en server med en index.html fil bara, som är publik mot internet.

Jag vore tacksam om jag kunde få lite mer klarhet i nätverksbiten då jag aldrig kört med DMZ förut. Samt så är jag lite fundersam kring VLAN oxå. Jag vill att "mina" VMs ska nå varandra internt på 192.168.X.X adressen, men inte de VPSer jag hostar, de ska vara separata. Hur gör jag här?

Tacksam för svar!

Ett tips är att sätta upp ESXi själv, så att du lär dig något på vägen och inte bara låta andra göra jobbet åt dig, så förstår du ingen när det blir problem/behöver felsökas. ESXi är lätt, installera, anslut med klienten, lägg in en iso fil av OS du vill ha, skapa en vm, installera, done. Sedan kan du ex lägga upp fler vlan/vswitches om du vill det, men det hela är mycket enkelt.

För att du ska separera dina servrar från ditt LAN, antingne kör du brandvägg lokalt på varje server, eller så kör du en central brandvägg. Ska du köra flera webbservrar så behöver du ha flera publika IP adresser, om du inte ska köra dina webbservrar via en proxy server ut mot internet (dvs en webbserver som vidarebefordrar trafiken till rätt interna server).

Vill du ha det så så lägger du VPS:er åt andra på eget VLAN, och publika IP adresser, sedan kan du ex lägga dina VPS:er på eget VLAN, med brandvägg framför, vilken även sköter ditt LAN, men även blockerar viss trafik till/från de olika näten, så ex från ditt interna egna servernät så tillåts ex bara port 22 till/från LAN, och ex port 80/443.

Det låter som att du inte har så stor koll på det hela med nätverk/server, och då ska du inte ge dig på att hosta VPS:er åt andra, då du (som det verkar) inte ens kan sätta upp ESXi eller bygga upp ett enkelt nätverk, utan måste fråga om allt, och då passar det inte att börja hosta VPS:er åt "kunder", de kommer ju ställa krav på upptid, prestanda, redundans/felavhjälpning, trafik, IP adresser mm. Har du tillgång till ett företags bredband? Skaffat eget IP-nät (och kanske eget AS?), har du tänkt på backuper, UPS, reservkraft (diesel/elverk?), fysisk säkerhet mm?

Skrivet av enoch85:

Tack för svar!
Det är alltså en bra idé att sätta samtliga mina webservrar i DMZ? Jag tänkte mer att man kan skydda sig internt med VLAN, alltså angriper dom en server så kan dom inte nå nästa server eller resterande nätverk.

Klart att de kan nå nästa server om den har internetuppkoppling.
Du har egentligen två val.
Antingen så kör du alla servrar bakom en brandvägg, och kör webbtrafik mm via en central proxy, eller så kör du dem öppet, fast genom en brandvägg som stoppar onödiga portar (och som du kan filtrera skadlig trafik i, ex blocka IP adresser vid DDoS mm).

Skrivet av jocke92:

Så länge du inte har mycket kommunikation mellan servrarna kan du göra ett DMZ för varje server. I en del hypervisors kan man också sätta brandväggsregler på varje virtuell maskin

Rätt onödigt att ha ett DMZ för varje server, bättre att ha de öppet direkt, och låta en brandvägg filtrera/blocka oönskad trafik, men ändå ha de på publika IP adresser.

Visa signatur

System: Corsair Obsidian 550D Midi Tower Svart || Corsair AX 850W PSU || Intel® Core i7-3770K Processor || ASUS P8P67-M || 2 x Intel® SSD 520 Series 180GB || Gigabyte GeForce GTX 670 2GB PhysX CUDA ||

Permalänk
Medlem
Skrivet av PowerNet:

Ett tips är att sätta upp ESXi själv, så att du lär dig något på vägen och inte bara låta andra göra jobbet åt dig, så förstår du ingen när det blir problem/behöver felsökas. ESXi är lätt, installera, anslut med klienten, lägg in en iso fil av OS du vill ha, skapa en vm, installera, done. Sedan kan du ex lägga upp fler vlan/vswitches om du vill det, men det hela är mycket enkelt.

Jo hur man sätter upp VMen är jag helt med på, jag hostar ju några idag. Jag ville mest förbereda mig på vad som komma skall då detta ska bli en produktionsmiljö direkt.

"Låta andra göra jobbet åt dig" - tycker du att det är för mycket begärt att vara frågvis? Det är väl det man har forum till? Jag slipper helst problem i en produktionsmiljö. Jag har dock hört att jag komplicerar det för mycket. Jag tror det blir lättare när jag väl sitter med allt framför mig. Just nu kan jag inte testa heller eftersom det skulle innebära driftstopp på nuvarande server.

Skrivet av PowerNet:

För att du ska separera dina servrar från ditt LAN, antingne kör du brandvägg lokalt på varje server, eller så kör du en central brandvägg. Ska du köra flera webbservrar så behöver du ha flera publika IP adresser, om du inte ska köra dina webbservrar via en proxy server ut mot internet (dvs en webbserver som vidarebefordrar trafiken till rätt interna server).

Central branvägg är vad jag tänkt. Jag använder en Nginx proxy idag, som du kan se på båda skissar jag gjort.

Skrivet av PowerNet:

Vill du ha det så så lägger du VPS:er åt andra på eget VLAN, och publika IP adresser, sedan kan du ex lägga dina VPS:er på eget VLAN, med brandvägg framför, vilken även sköter ditt LAN, men även blockerar viss trafik till/från de olika näten, så ex från ditt interna egna servernät så tillåts ex bara port 22 till/från LAN, och ex port 80/443.

Got it. Ett VLAN för mina egna saker, och ett VLAN för VPSerna. Jag behöver inte nå VPSerna internt, jag skulle lika gärna kunna nå dom via SSH och eventuellt VPN via domännamnet.

Skrivet av PowerNet:

Det låter som att du inte har så stor koll på det hela med nätverk/server, och då ska du inte ge dig på att hosta VPS:er åt andra, då du (som det verkar) inte ens kan sätta upp ESXi eller bygga upp ett enkelt nätverk, utan måste fråga om allt, och då passar det inte att börja hosta VPS:er åt "kunder", de kommer ju ställa krav på upptid, prestanda, redundans/felavhjälpning, trafik, IP adresser mm. Har du tillgång till ett företags bredband? Skaffat eget IP-nät (och kanske eget AS?), har du tänkt på backuper, UPS, reservkraft (diesel/elverk?), fysisk säkerhet mm?
Klart att de kan nå nästa server om den har internetuppkoppling.
Du har egentligen två val.
Antingen så kör du alla servrar bakom en brandvägg, och kör webbtrafik mm via en central proxy, eller så kör du dem öppet, fast genom en brandvägg som stoppar onödiga portar (och som du kan filtrera skadlig trafik i, ex blocka IP adresser vid DDoS mm).
Rätt onödigt att ha ett DMZ för varje server, bättre att ha de öppet direkt, och låta en brandvägg filtrera/blocka oönskad trafik, men ändå ha de på publika IP adresser.

Nä du har rätt nätverk är inte min starka sida, därav denna tråd. Sen är denna tråd inget CV där jag skriver om allt som jag redan kan, det blir mycket frågor, mycket för att bekräfta sånt som jag är osäker på. Jag är inget uppslagsverk och kan inte precis allt. Jag anser inte att man behöver kunna just "allt" för att hosta åt andra. Nuvarande kunder är mycket nöjda och jag har skött deras servrar de senaste ~6 månaderna. Själv har jag driftat server i >3 år.

Hur började du? Läste du mycket på forum? Gick du en utbildning? Was Google your friend? Man måste börja nånstans. Återigen, ja, jag har tänkt på allt du skrev. Jag har en sådan uppsätnning idag. Dock inget elverk ifall hela mitt område får strömavbrott...eller kanske rentav hela Malmö, då sitter jag verkligen i skiten. Det låter som att du tror att jag ska köpa en industrilokal och fylla den med servrar. Så är inte fallet. Jag kommer ha plats för cirka 10 VPSer, inte mer.

Tack för ditt svar.

Visa signatur

Citera för svar

Stora Owncloud/Nextcloud-tråden: http://www.sweclockers.com/forum/122-server/1212245-officiell...
Jobb: Datacenter Manager
Grundare: https://www.hanssonit.se

Permalänk
Avstängd
Skrivet av enoch85:

"Låta andra göra jobbet åt dig" - tycker du att det är för mycket begärt att vara frågvis? Det är väl det man har forum till? Jag slipper helst problem i en produktionsmiljö. Jag har dock hört att jag komplicerar det för mycket. Jag tror det blir lättare när jag väl sitter med allt framför mig. Just nu kan jag inte testa heller eftersom det skulle innebära driftstopp på nuvarande server.

Central branvägg är vad jag tänkt. Jag använder en Nginx proxy idag, som du kan se på båda skissar jag gjort.

Got it. Ett VLAN för mina egna saker, och ett VLAN för VPSerna. Jag behöver inte nå VPSerna internt, jag skulle lika gärna kunna nå dom via SSH och eventuellt VPN via domännamnet.

Nuvarande kunder är mycket nöjda och jag har skött deras servrar de senaste ~6 månaderna. Själv har jag driftat server i >3 år.

Det låter som att du tror att jag ska köpa en industrilokal och fylla den med servrar. Så är inte fallet. Jag kommer ha plats för cirka 10 VPSer, inte mer.

Tack för ditt svar.

Kortar ner din text lite, och tar det relevanta för din drift.
Texten du skrev (har fått bra kontakt med Danne som har hjälpt mig förstå en hel del, samt även kommer hjälpa mig med att sätta upp Vsphere när alla delar är på plats.) kan tolkas på så sätt att du skulle få den uppsatt, och klar av en på forumet (dvs en sätter upp det, och du bara tar över det) därav det svaret du fick :).

Vill du få kunskap/erfarenhet och själv veta hur det är gjort (enklare för din felsökning/drift) så är det bättre att du själv sätter upp maskinen, och vid behov frågar om råd/hjälp, eller blir hänvisad vidare till andra källor/guider.
Att sätta upp ESXi isig självt är inte svårt, då det är som vilket OS som helst att installera från skiva/usbminne.

För att enklare hjälpa dig vidare så behöver du nog ge lite mer av dina förutsättningar.
Har du tillgång till egna IP adresser? (Publika, dvs eget IPv4/IPv6 nät eller från en ISP?, eget AS?)
Har du företagsbredband? (Krävs om du ska ha kunder, dvs betalande).

Det var inte så jag tolkade det heller, men har man kunder så förväntar de sig (troligen) en viss form utav säkerhet rent fysiskt, och både en driftsäkerhet (UPS, reservkraft, redundanta maskiner mm), inte att du har en stor lokal, med hundratals servrar för några få VPS:er.

Har du funderat på att ställa maskinen i colocation? För din del vore ex FSData kanske ett bra alternativ då de har en hall i närheten: https://fsdata.se/server/colocation/

Visa signatur

System: Corsair Obsidian 550D Midi Tower Svart || Corsair AX 850W PSU || Intel® Core i7-3770K Processor || ASUS P8P67-M || 2 x Intel® SSD 520 Series 180GB || Gigabyte GeForce GTX 670 2GB PhysX CUDA ||

Permalänk
Medlem
Skrivet av PowerNet:

För att enklare hjälpa dig vidare så behöver du nog ge lite mer av dina förutsättningar.
Har du tillgång till egna IP adresser? (Publika, dvs eget IPv4/IPv6 nät eller från en ISP?, eget AS?)
Har du företagsbredband? (Krävs om du ska ha kunder, dvs betalande).

Det var inte så jag tolkade det heller, men har man kunder så förväntar de sig (troligen) en viss form utav säkerhet rent fysiskt, och både en driftsäkerhet (UPS, reservkraft, redundanta maskiner mm), inte att du har en stor lokal, med hundratals servrar för några få VPS:er.

Har du funderat på att ställa maskinen i colocation? För din del vore ex FSData kanske ett bra alternativ då de har en hall i närheten: https://fsdata.se/server/colocation/

Ja, det är inte lätt att veta kunskapsnivån. Spciellt här på Swec.

Jag tänkte som sagt köra allt via en central brandvägg och sen använda proxyn som jag kör med idag för skyffla trafik till de olika webservrarna. Jag har tillgång till 1 WAN adress från T3 (ISP), därav proxyn för att lösa det. Jag är bgeränsad till 2 st fysiska nätverkskort, ett på MB och ett Intel 350 4 portars. OPNsensen kommer att gå som en VM.

Jag har inget företagsbredband men har ringt till T3 och berättat att jag har server osv, de hade inga invändningar. Sen är det inte överdrivet mycket trafik vi pratar om, typ 5-6 TB per månad totalt sett inklusive mitt privata användande. Dock har jag tillgång til företagsbredband på ett kontor mitt i centrala Malmö, men med kass 100/100 lina - Felia...

Jag förstår att du kanske inte orkar läsa hela tråden från början till slut, men som sagt, jag har UPS som klarar drift i >2 timmar, backup via extern NAS och kommer även att ha extra VMs (speglade) redo att kicka igång ifall nån VM failar. Jag hostar bara 200GB på varje VPS. Alla VMs kommer ligga på RAID10. Gällande co-location så har jag tillgång till (driftar några) servrar i andra städer (och länder) som jag skulle kunna göra backup till. Eventuellt så kommer jag sätta upp en identisk server i Stockholm som speglar min egen server. Dit har jag inte kommit än.

Visa signatur

Citera för svar

Stora Owncloud/Nextcloud-tråden: http://www.sweclockers.com/forum/122-server/1212245-officiell...
Jobb: Datacenter Manager
Grundare: https://www.hanssonit.se

Permalänk
Avstängd
Skrivet av enoch85:

Ja, det är inte lätt att veta kunskapsnivån. Spciellt här på Swec.

Jag tänkte som sagt köra allt via en central brandvägg och sen använda proxyn som jag kör med idag för skyffla trafik till de olika webservrarna. Jag har tillgång till 1 WAN adress från T3 (ISP), därav proxyn för att lösa det. Jag är bgeränsad till 2 st fysiska nätverkskort, ett på MB och ett Intel 350 4 portars. OPNsensen kommer att gå som en VM.

Jag har inget företagsbredband men har ringt till T3 och berättat att jag har server osv, de hade inga invändningar. Sen är det inte överdrivet mycket trafik vi pratar om, typ 5-6 TB per månad totalt sett inklusive mitt privata användande. Dock har jag tillgång til företagsbredband på ett kontor mitt i centrala Malmö, men med kass 100/100 lina - Felia...

Jag förstår att du kanske inte orkar läsa hela tråden från början till slut, men som sagt, jag har UPS som klarar drift i >2 timmar, backup via extern NAS och kommer även att ha extra VMs (speglade) redo att kicka igång ifall nån VM failar. Jag hostar bara 200GB på varje VPS. Alla VMs kommer ligga på RAID10. Gällande co-location så har jag tillgång till (driftar några) servrar i andra städer (och länder) som jag skulle kunna göra backup till. Eventuellt så kommer jag sätta upp en identisk server i Stockholm som speglar min egen server. Dit har jag inte kommit än.

Så det du har tänkt är att din brandvägg ska NAT:a dina interna servrar?

Låter som att det skulle vara bättre om du satsade på colocation för servern, så du får tillgång till fler IP adresser (Och statiska dessutom, och IPv6) än att både blanda din egna webbtrafik med dina kunders genom samma proxy, och lokal brandvägg för din privata trafik.

Jag kan garantera att T3 har invänder mot att du har egen server för dina kunder, då det tydligt framgår av villkoren du gått med på att det är förbjudet/inte tillåtet.
"Anslutning av egen server
Kund får ansluta egen server till Bredbandstjänsten under förutsättning att den enbart används för Kunds eget bruk. Kund får däremot inte ansluta en server till Bredbandstjänsten i syfte att fritt eller mot betalning erbjuda eller tillhandahålla varor, tjänster eller information till annan."

Ställ din maskin direkt i colocation, så bryter du inte mot villkoren och riskerar arga/besvikna kunder, och åka på något från T3.

Visa signatur

System: Corsair Obsidian 550D Midi Tower Svart || Corsair AX 850W PSU || Intel® Core i7-3770K Processor || ASUS P8P67-M || 2 x Intel® SSD 520 Series 180GB || Gigabyte GeForce GTX 670 2GB PhysX CUDA ||

Permalänk
Medlem
Skrivet av PowerNet:

Så det du har tänkt är att din brandvägg ska NAT:a dina interna servrar?

Ja det hade jag tänkt, med hjälp av proxyn. Ser du något problem med det?

Visa signatur

Citera för svar

Stora Owncloud/Nextcloud-tråden: http://www.sweclockers.com/forum/122-server/1212245-officiell...
Jobb: Datacenter Manager
Grundare: https://www.hanssonit.se

Permalänk
Medlem
Skrivet av enoch85:

Ja det hade jag tänkt, med hjälp av proxyn. Ser du något problem med det?

Jag tar för givet att du har ett företagsabonnemang hos din internetleverantör? Jag tolkar din text som att du ska erbjuda och sälja tjänster, från ditt hem och privata internetanslutning..?

Visa signatur

pfSense: GA-J1900N-D3V Quad-core Celeron 2GHz, Samsung 4GB, pfSense 2.2.2@USB
ESXi: i5 3470S, Gigabyte GA-B75N, Corsair XMS3 16GB, Intel PRO/1000 VT Quad GbE, Streacom F7C, ESXi@USB
Campfire Audio Lyra II, HiFiMAN HE-400, Yamaha EPH-100, Audioengine D1, FiiO E10

Permalänk
Avstängd
Skrivet av enoch85:

Ja det hade jag tänkt, med hjälp av proxyn. Ser du något problem med det?

Beror på, ska du ha allt på en server (och agera som "webbhotell") och köra dina och kunders webbsidor på samma maskin så kör på, men ska du bygga upp egna VPS:er till "kunder" så bör du ha det separat, så att inte en enskild VPS (proxy) kan dra ner alla 10-20 sidor i ett svep, för att du råkar göra en konfigurations miss, eller att proxyn överbelastas.

Och som sagt, ställ maskinen i colocation eller ring T3 och gör om ditt abonnemang till företagsabonnemang, och kolla att de tillåter server för uthyrning/drift åt andra där, då det inte är tillåtet på ett privat abonnemang.

Och fördelen med colocation är ju att du får stabilare lina, och stabilare drift över lag, många bredband för konsumenter är inte ens UPS säkrade,vilket bredband till colocation hallar är, både av olika elsystem (A+B kraft) och vanligen reservkraft i form av diesel generatorer, och en högre fysisk säkerhet till en oftast rätt låg kostnad, och på det tillgång till statiska IP adresser, och IPv6.

Visa signatur

System: Corsair Obsidian 550D Midi Tower Svart || Corsair AX 850W PSU || Intel® Core i7-3770K Processor || ASUS P8P67-M || 2 x Intel® SSD 520 Series 180GB || Gigabyte GeForce GTX 670 2GB PhysX CUDA ||

Permalänk
Medlem
Skrivet av PowerNet:

Beror på, ska du ha allt på en server (och agera som "webbhotell") och köra dina och kunders webbsidor på samma maskin så kör på, men ska du bygga upp egna VPS:er till "kunder" så bör du ha det separat, så att inte en enskild VPS (proxy) kan dra ner alla 10-20 sidor i ett svep, för att du råkar göra en konfigurations miss, eller att proxyn överbelastas.

Generellt sett så är det inga webbsidor jag ska hosta, sen får ju kunden göra vad den önskar med VPSen, inom lagens ramar. Det som kommer att hostas är de ownCloud VMs som jag säljer i min butik. Det är alltså en väldigt specifik hosting. Det som skulle kunna hända är att en VPS DDOSas och att de drar ner de andra, men det kommer att finnas skydd för det. Jag kommer även att ha varje VPS på ett Private VLAN så att de inte kan nå varandra heller.

Skrivet av PowerNet:

Och som sagt, ställ maskinen i colocation eller ring T3 och gör om ditt abonnemang till företagsabonnemang, och kolla att de tillåter server för uthyrning/drift åt andra där, då det inte är tillåtet på ett privat abonnemang.

Ja, du har pointerat det 3 gånger nu.

Skrivet av PowerNet:

Och fördelen med colocation är ju att du får stabilare lina, och stabilare drift över lag, många bredband för konsumenter är inte ens UPS säkrade,vilket bredband till colocation hallar är, både av olika elsystem (A+B kraft) och vanligen reservkraft i form av diesel generatorer, och en högre fysisk säkerhet till en oftast rätt låg kostnad, och på det tillgång till statiska IP adresser, och IPv6.

Ska jag ha co-location så går jag med förlust. Det är svårt att få det att går runt på 10 st VPSer. Jag kommer ta $30 per månad, och då får man räkna med allt runtomkring också, hårdvara som måste bytas osv. I dagsläget har jag 2 kunder, och att jag ens får 10 st är långt ifrån säkert.

Visa signatur

Citera för svar

Stora Owncloud/Nextcloud-tråden: http://www.sweclockers.com/forum/122-server/1212245-officiell...
Jobb: Datacenter Manager
Grundare: https://www.hanssonit.se

Permalänk
Medlem
Skrivet av PowerNet:

Rätt onödigt att ha ett DMZ för varje server, bättre att ha de öppet direkt, och låta en brandvägg filtrera/blocka oönskad trafik, men ändå ha de på publika IP adresser.

Det är det enklaste sättet att separera servrarna från varandra, även om det finns andra lösningar. Så att de inte kan kommunicera. Sedan blir det mindre flexibelt med publika adresser direkt på maskinerna. Man ska inte förlita sig på mjukvarubrandväggen i servern heller, om någon tar över servern så ställer man om den.

Permalänk
Avstängd
Skrivet av enoch85:

Generellt sett så är det inga webbsidor jag ska hosta, sen får ju kunden göra vad den önskar med VPSen, inom lagens ramar. Det som kommer att hostas är de ownCloud VMs som jag säljer i min butik. Det är alltså en väldigt specifik hosting. Det som skulle kunna hända är att en VPS DDOSas och att de drar ner de andra, men det kommer att finnas skydd för det. Jag kommer även att ha varje VPS på ett Private VLAN så att de inte kan nå varandra heller.

Ska jag ha co-location så går jag med förlust. Det är svårt att få det att går runt på 10 st VPSer. Jag kommer ta $30 per månad, och då får man räkna med allt runtomkring också, hårdvara som måste bytas osv. I dagsläget har jag 2 kunder, och att jag ens får 10 st är långt ifrån säkert.

Bara på 2 kunder så är du snart i hamn, beroende på pris/kostnad.
Att ha de på olika VLAN för varje VPS känns onödigt omständigt för din drift, samla de på samma VLAN, ha ingen SSH in till de aktivt, ha en central brandvägg som blockar alla portar/trafik du inte vill ha (ex bara tillåter 53/80/443).

Skrivet av jocke92:

Det är det enklaste sättet att separera servrarna från varandra, även om det finns andra lösningar. Så att de inte kan kommunicera. Sedan blir det mindre flexibelt med publika adresser direkt på maskinerna. Man ska inte förlita sig på mjukvarubrandväggen i servern heller, om någon tar över servern så ställer man om den.

Det blir mer flexibelt att ha publika IP adresser direkt till maskinen, varje kund får separat IP adress, blir inte beroende av en gemensam proxy, eller dess säkerhet/SSL/certifikat mm.

Och man kan ha en gemensam brandvägg som all trafik går igenom, som blockar oönskad trafik helt, och bara släpper igenom den önskade trafiken, trots att de sitter på publika IP adresser.

Men en lokal brandvägg på varje maskin är ju bra att ha med.

Och tillåter man inloggning via SSH till Linux maskiner så kör med krav att det är certifikat som gäller, inte inloggning med lösenord. Ska man drifta Windows vm:ar så sätt som krav att RDP endast är öppet från internt VPN nätverk, så det inte ligger öppet publikt.

Visa signatur

System: Corsair Obsidian 550D Midi Tower Svart || Corsair AX 850W PSU || Intel® Core i7-3770K Processor || ASUS P8P67-M || 2 x Intel® SSD 520 Series 180GB || Gigabyte GeForce GTX 670 2GB PhysX CUDA ||

Permalänk
Medlem
Skrivet av PowerNet:

Det blir mer flexibelt att ha publika IP adresser direkt till maskinen, varje kund får separat IP adress, blir inte beroende av en gemensam proxy, eller dess säkerhet/SSL/certifikat mm.

Menar såklart inte att man ska ha proxy, menar såklart att maskinerna ska ha svarta adresser och NAT:as ut mot publika. Visst man kan ändra i DNS när man byter server, men jag föredrar att bara peka om NAT. Går på direkten, och behöver man komma åt gamla har den samma gamla IP internt. Ångrar man sig och vill köra gamla servern ändrar man tillbaka.

Permalänk
Avstängd
Skrivet av jocke92:

Menar såklart inte att man ska ha proxy, menar såklart att maskinerna ska ha svarta adresser och NAT:as ut mot publika. Visst man kan ändra i DNS när man byter server, men jag föredrar att bara peka om NAT. Går på direkten, och behöver man komma åt gamla har den samma gamla IP internt. Ångrar man sig och vill köra gamla servern ändrar man tillbaka.

Fast, ska de kunnas nås utifrån så måste det finnas en reverse proxy för webbtrafiken, vilket blir en felkälla/svag punkt.

Fördelen med att ha statiska IP adresser är just att varje maskin kan ha en egen, och slippa peka om DNS mm när ens IP ändras, och möjlighet till reverse dns.

Visa signatur

System: Corsair Obsidian 550D Midi Tower Svart || Corsair AX 850W PSU || Intel® Core i7-3770K Processor || ASUS P8P67-M || 2 x Intel® SSD 520 Series 180GB || Gigabyte GeForce GTX 670 2GB PhysX CUDA ||

Permalänk
Medlem
Skrivet av PowerNet:

Fast, ska de kunnas nås utifrån så måste det finnas en reverse proxy för webbtrafiken, vilket blir en felkälla/svag punkt.

Fördelen med att ha statiska IP adresser är just att varje maskin kan ha en egen, och slippa peka om DNS mm när ens IP ändras, och möjlighet till reverse dns.

Nej, behövs inga reverseproxys. Såklart har varje webbserver en egen publik ip framför sin svarta adress.

nackdelen med fasta publika adresser direkt i servrarna blir när du byter server men vill komma åt den andra. Inte lika flexibelt. Samt måste in i båda maskinerna och sätta IP-adresserna till nya.

Permalänk
Avstängd
Skrivet av jocke92:

Nej, behövs inga reverseproxys. Såklart har varje webbserver en egen publik ip framför sin svarta adress.

nackdelen med fasta publika adresser direkt i servrarna blir när du byter server men vill komma åt den andra. Inte lika flexibelt. Samt måste in i båda maskinerna och sätta IP-adresserna till nya.

Hej!

Du verkar ha missat att TS bara nu har tillgång till 1 st WAN adress?
"Jag har tillgång till 1 WAN adress från T3 (ISP), därav proxyn för att lösa det"
Därav förslaget att ställa i colocation (dels för att få tillgång till fler adresser, och statiska, och dels inte bryta mot villkoren för abonnemanget).

Fast byter man server så lägger man ju upp den nya på en ny server, och ställer om DNS dit så går trafiken över till den nya, eller så när den nya servern är klar så går man in på den gamla och stänger ner nätverkskortet och aktiverar nätverkskortet på nya servern med samma IP, det tar inte så lång tid och kan med fördel göras under natten för att inte påverka sina kunders system så mycket.

Annars kan man ju som du föreslår ha en brandvägg framför varje server, men det känns rätt omständigt att ha en brandvägg framför varje server, och sedan en lokalt på varje server med, sköta om dubbla antalet system/brandväggar för samma grund.

Visa signatur

System: Corsair Obsidian 550D Midi Tower Svart || Corsair AX 850W PSU || Intel® Core i7-3770K Processor || ASUS P8P67-M || 2 x Intel® SSD 520 Series 180GB || Gigabyte GeForce GTX 670 2GB PhysX CUDA ||