Permalänk
Medlem

ny företagsserver

Hejsan,
Jag håller på att plocka ihop en server till bolaget. Vad tror ni om denna konfiguration? Vilken CPU borde jag gå på? Är det tillräckligt mycket kraft? Åsikter välkommans varmt.

Den ska hosta cirka 10 virutuella maskiner, bland annat:

1. SVN
2. IIS Web, MSSQL DB Windows
3. Apache Web, MySQL DB Linux
4. WSUS

5. Etc, etc

CPU:

1. Intel Xeon X5650 Processor 2.66Ghz 12MB Cache SIX CORES
2. Intel Xeon X5670 Processor 2.93Ghz 12MB Cache SIX CORES
3. Intel Xeon X5680 Processor 3.33Ghz 12MB Cache SIX CORES
4. Intel Xeon X5645 Processor 2.40Ghz 12MB Cache SIX CORES

Moderkort:

1. Intel Server Board S5500BC

Ram:
32 GB RAM (8 x 4gb)

HDD:
2TB HDD RAID 10 (4x1TB) dedikerad box

Tacksam för svar!

Permalänk
Medlem

Har du övervägt s1567?

Permalänk
Medlem

Hej,

Vad har s1567 för fördelar gentemot S5500BC som du ser det?

Permalänk
Medlem
Skrivet av Kran:

Hej,

Vad har s1567 för fördelar gentemot S5500BC som du ser det?

Jag är inte rätt person att avgöra just hur mkt kraft ni behöver. Men det finns nyare processorer.

Större cache, högre minnesbandbredd och fler kärnor.

Permalänk
Medlem

Nej, det är svårt att avgöra hur mycket kraft vi behöver. Cirka 10 virutal machines, men ska iallfall bland annat driva SVN server för 100 pers internt. Sen även driva "demo" server för 20 kunder externt för uppvisande av kundprojekt, (.net, php)

Permalänk
Medlem

X5680 är rätt väg att gå för er del, gissningsvis vill ni bygga på den i framtiden, och då ligger s1567 i lä pga begränsningar som inte 5680 lider av.

Likaså skulle jag nog lägga DB's på en intel 710 SSD, för att slippa det smågnagandet på mekaniska diskar, läggs då helst utanför RADI10.
Mer specifikt Raid 5 eller Raid 1, om ni har råd med mer så kan även en ssd-array läggas i raid 10.

RAID-kort nämns inte för ditt RAID10 där, men om du ska ha ett, och det tycker jag nog (betydligt mer throughput än de som ligger på mobo't redan) eftersom det sparar CPU, och då föreslår jag areca arc-1882x

Visa signatur

SNÄLLA CITERA MIG OM NI VILL ATT JAG SKA HITTA TILLBAKS TILL TRÅDEN

Permalänk
Medlem

Well, mycket handlar ju också om att vilken virtualiserings teknik du använder. Kör du Vmware/Windows så skipar det ju vad du kör undertill, säckar ju ihop ändå i längden

Kör du bara en CPU är det slöseri med dualsocket moderkort, men du bör nog köra dubbla CPUer ändå tycker jag. Inte i rå GHz men du vill ha mer kärnor som de virtuella maskinerna kan nå.

RAM vet jag inte varför du snålar med, drös in med 48GB på direkten, det är billigt idag. Men flaskhalsen kommer att vara disk IO. Kör åminståne RAID5 eller RAID6. Ännu hellre via SSD för de operativsystemen du hostar. Lagring för SVN och större/viktigare saker på raidad snurrdisk. Kör du KVM som virtualisering är det väldigt praktiskt med LVM undertill så kan du ta automatiska snapshots och möblera om utrymme utan att skjuta ner allt, men då ska man ju ha oantvänd utrymme ledigt för denna typ av underhåll. Hellre mycket disk och RAM än för lite, så jag skulle inte snåla på specarna när det gäller denna typ av maskin.

Lägger man sig redan på taket vad man behöver idag så har man noll expansionsmöjligheter i framtiden.

Angående processorval så tycker jag E5645, den kör väldigt många med just pga att de är förmodligen den som ligger bäst i pris. X-serierna kostar mer, det finns ingen X5645. Har man specialprogram där man betalar dyr licens som oftast kostar mycket mer än hårdvaran så är det billigare i drift med X-Xeons, övrigt ser jag ingen större anledning att gå upp till de nivåerna.

EDIT:
Du vill inte köra 8x4GB minne ändå, dessa CPUer matas med 3moduler per CPU.

Permalänk
Medlem

Håller med om att disk I/O är det du kommer att få problem med först, en RAID10 med 4st 7200 rpm diskar kommer inte att räcka långt till all I/O du kommer ha om det är lite belastning på databaserna.

Permalänk
Medlem

Har man mycket RAM för databasen så behöver det ju faktiskt inte märkas av för slutanvändarna, minne är billigt till förhållandet var det var för 10 år sedan, näst intill alla moderna databaser körs rakt i minnet idag att köra dem från disk är bara *****.... ja, inte lönt.

Men man märker dock att det tar så oerhört lång tid att göra underhåll på snurrdisks databaser än SSD, de gångerna man behöver ta ner systemet ur drift så kommer man bara gråta; varför låg de inte på SSD. Tar säkerligen 10gånger längre tid att läsa in en mysqldump med snurrdiskar än SSDs.

Permalänk
Medlem
Skrivet av Jimi84:

Har man mycket RAM för databasen så behöver det ju faktiskt inte märkas av för slutanvändarna, minne är billigt till förhållandet var det var för 10 år sedan, näst intill alla moderna databaser körs rakt i minnet idag att köra dem från disk är bara *****.... ja, inte lönt.

När vi pratar läsningar så körs så mycket som möjligt i minne ja, men vid skrivningar så skrivs det till disk innan transaktionen är genomförd (om man inte vill bli av med data i alla fall). Nu vet jag inte vilken ratio på läs/skriv det är i detta fallet men jag vill bara flagga för att disken kan bli svagaste länken beroende på användandeområde.
Sen gillar jag ju idén med SSD för databaser men har inte vågat ta steget ut själv ännu då vi har mycket skrivningar till våra databaser samt att det blir väldigt dyrt med SSD med den datamängden vi har.

Permalänk
Medlem
Skrivet av devhdc:

X5680 är rätt väg att gå för er del, gissningsvis vill ni bygga på den i framtiden, och då ligger s1567 i lä pga begränsningar som inte 5680 lider av.

Likaså skulle jag nog lägga DB's på en intel 710 SSD, för att slippa det smågnagandet på mekaniska diskar, läggs då helst utanför RADI10.
Mer specifikt Raid 5 eller Raid 1, om ni har råd med mer så kan även en ssd-array läggas i raid 10.

RAID-kort nämns inte för ditt RAID10 där, men om du ska ha ett, och det tycker jag nog (betydligt mer throughput än de som ligger på mobo't redan) eftersom det sparar CPU, och då föreslår jag areca arc-1882x

Funderar att gå på 2 Intel Xeon E5645 2,40GHz Socket 1366 Box. Verkar vara mer prisvärd än X5680. Ser du några begränsningar med E5645 i jämförelse med X5680?

Idag har vi tänkt att ha en dedikerad NAS med RAID med ex. 2gigabit interface. Är det nackdelar gentemot att ha ett RAID kort och interna HDD?

Skrivet av Jimi84:

Well, mycket handlar ju också om att vilken virtualiserings teknik du använder. Kör du Vmware/Windows så skipar det ju vad du kör undertill, säckar ju ihop ändå i längden

Kör du bara en CPU är det slöseri med dualsocket moderkort, men du bör nog köra dubbla CPUer ändå tycker jag. Inte i rå GHz men du vill ha mer kärnor som de virtuella maskinerna kan nå.

RAM vet jag inte varför du snålar med, drös in med 48GB på direkten, det är billigt idag. Men flaskhalsen kommer att vara disk IO. Kör åminståne RAID5 eller RAID6. Ännu hellre via SSD för de operativsystemen du hostar. Lagring för SVN och större/viktigare saker på raidad snurrdisk. Kör du KVM som virtualisering är det väldigt praktiskt med LVM undertill så kan du ta automatiska snapshots och möblera om utrymme utan att skjuta ner allt, men då ska man ju ha oantvänd utrymme ledigt för denna typ av underhåll. Hellre mycket disk och RAM än för lite, så jag skulle inte snåla på specarna när det gäller denna typ av maskin.

Lägger man sig redan på taket vad man behöver idag så har man noll expansionsmöjligheter i framtiden.

Angående processorval så tycker jag E5645, den kör väldigt många med just pga att de är förmodligen den som ligger bäst i pris. X-serierna kostar mer, det finns ingen X5645. Har man specialprogram där man betalar dyr licens som oftast kostar mycket mer än hårdvaran så är det billigare i drift med X-Xeons, övrigt ser jag ingen större anledning att gå upp till de nivåerna.

EDIT:
Du vill inte köra 8x4GB minne ändå, dessa CPUer matas med 3moduler per CPU.

aa, bra ide. Blir nog Linux med LVM för resize och snapsshots. Blir Wmware ESXi.

Skrivet av b1ghen:

Håller med om att disk I/O är det du kommer att få problem med först, en RAID10 med 4st 7200 rpm diskar kommer inte att räcka långt till all I/O du kommer ha om det är lite belastning på databaserna.

4st 7200 i RAID är vad jag hade planerat idag, tillsammans med 6*8GB RAM. Hur ska man bygga RAID systemet för att få tillräckligt mycket hastighet?

Permalänk

Får man fråga vad det är för bolag?

Visa signatur

i7 7700K // Radeon RX 480 8GB // Corsair 16GB DDR4 3000Mhz CL15
Vengeance // MSI Z270 TOMAHAWK // Samsung 850 EVO 500GB // Fractal Design Integra M 550W

Permalänk
Medlem

utvecklingsbolag, framförallt .NET och android/iphone

Permalänk
Medlem
Skrivet av Kran:

4st 7200 i RAID är vad jag hade planerat idag, tillsammans med 6*8GB RAM. Hur ska man bygga RAID systemet för att få tillräckligt mycket hastighet?

Om man inte ska gå på "exotiska" lösningar som ren SSD så är det rotationshastighet, antal spindlar och ett bra interface som gäller. Rekommenderar oftast 15k SAS diskar, så många man kan få in och i RAID 10 om man har mycket skrivningar, om man har mest läsningar så funkar det hyfsat med RAID 5/6.
Vissa RAID lösningar kan man komplettera med SSD för läs/skriv cache, har inte erfarenhet av dessa själv men då kan man i teorin klara sig med färre/långsammare diskar.
Optimalt är ju oftast ett SAN/NAS som man kan bygga ut efterhand som man behöver mer utrymme eller I/O, men då brukar det springa iväg i pengar väldigt fort.

Permalänk
Medlem

SAS är döende, oerhört få som envisas med att köra med dem idag. De må vara marginellt bättre, men är man paranoid kör man hellre på redundanta maskiner, dvs köper två eller fler identiska servrar och failover däremellan.

En billig Intel 320 SSD t.ex. skriver du 20GB om dagen till disken så håller den i 5 år, 27GB så håller den i 3år. Det står i produkt bladen.
Det krävs ganska mycket för att en databasmaskin ska dundra konstant så mycket data på disken, varje dag. Räcker inte det går man på dyrare SLC varianter. Men som alltid, så kan det vara värt att kolla lite på övervakningsstatistik om man har samlat in något vad man egentligen behöver. Går alldeles utmärkt att HW raida SSDs också.

Angående CPU specana:
http://ark.intel.com/products/48768/Intel-Xeon-Processor-E564...
Det är i princip QPI och klockning som skilljer mot X5680. Men också TDP, notera att det inte finns någon vettig 1U kylning för 130W CPUer, utan då får man gå upp i 2U+.

Permalänk
Medlem
Skrivet av Jimi84:

SAS är döende, oerhört få som envisas med att köra med dem idag. De må vara marginellt bättre, men är man paranoid kör man hellre på redundanta maskiner, dvs köper två eller fler identiska servrar och failover däremellan.

En billig Intel 320 SSD t.ex. skriver du 20GB om dagen till disken så håller den i 5 år, 27GB så håller den i 3år. Det står i produkt bladen.
Det krävs ganska mycket för att en databasmaskin ska dundra konstant så mycket data på disken, varje dag. Räcker inte det går man på dyrare SLC varianter. Men som alltid, så kan det vara värt att kolla lite på övervakningsstatistik om man har samlat in något vad man egentligen behöver. Går alldeles utmärkt att HW raida SSDs också.

Angående CPU specana:
http://ark.intel.com/products/48768/Intel-Xeon-Processor-E564...
Det är i princip QPI och klockning som skilljer mot X5680. Men också TDP, notera att det inte finns någon vettig 1U kylning för 130W CPUer, utan då får man gå upp i 2U+.

Fick avslag på budgeten så blir nog 1st E5645 med 3*8GB RAM, sen köper jag till en till CPU och mer RAM om några år.

Angående hårddiskarna.
Funderar på en NAS BlackArmor 440 för att driva alla WMwares. Den har 2 gigabit anslutningar och inkluderar 4 SATA II diskar som jag kan sätta i en RAID 10 konfiguration.
http://www.seagate.com/www/en-us/pro...ntOptionsForPC

Är det stor prestandaskillnad gentemot att ha lagringen "internt" i servern?

Permalänk
Medlem

jag hade hållt det enkelt...

Du skriver att ni är 100 pers, 10 servrar, jag utgår då ifrån att din budget för detta projektet är runt 50 000.-
Jag vet inte hur eran framtida situation ser ut men kommer ni att växa kanske du skall kolla på ett riktigt SAN direkt med extra allt (ekonomi avdelningen brukar knorra men i det långa loppet brukar det bli en bättre lösning).

Om inte annat så hade jag satsat på en enkelserver med dubbla PSU och med plats för 8 diskar (jag kör allt på supermicro servrar nuförtiden, X8DTN+-F är favoriten den senaste tiden),
kör interna diskar med ett riktigt RAID-kort (räcker gott med ett enklare, men gärna med BBU och extra minne kostar runt 5000).
kör på en raid6 (skit i hotspare sannolikheten att två diskar pajjar är liten innan du hinner byta den första som har pajjat),
kör med så högt varvtal som möjligt minst 10k (gärna SAS 15K men det drar iväg på priset, skulle tro en 2000 per disk extra...),
inga diskar över 1Tb i storlek (rebuilder tar en evighet, och prestandan sänks om du inte har mycket cache i disken).
detta ger dig en hygglig genomströmning på diskarna med runt 2000 I/O (ärliga, du kommer att få en viss "IOPS RAID penalty" beroende på vilken raid nivå du väljer...).

Som jämförelse så räcker 2000 iops gott för att driva en exchange server med 3000 användare utan problem...

minne kostar inget i dagens läge, fläska på med 9*8Gb direkt, det ger dig utrymme att justera minnestilldelningen på dina 10 maskiner,
en wsus klarar sig gott på 4Gb men din DB kanske behöver 32Gb (vet väldigt lite om din miljö...).
Kör du på exempelvis supermicro servern har du ytterligare 9 minnes slotar att fylla upp om du behöver (och ett totalt minnesstöd på 288Gb)...

Jag hade kört på två E5645, mest prisvärd samt med två CPUer kan du dedikera en core per maskin samt någon extra core ifall du behöver mer på någon maskin.

Med denna setup har du ju alla ägg i samma korg men det är väldigt sällan man får hårdvarufel nuförtiden, mest diskar som pajjar (varav ett bra RAID kort)...
Vill du sova lungt hade jag köpt ett enkelt NAS (med tanke på ni är 100 pers så kanske inte det allra billigaste...) och kört image backuper mot det genom VCB (om du har den licensen i ESXi) alternativt exempelvis veeam backup (kostar men funkar å andra sidan även med "ESXi Free").
Då vet du med dig att du kan återskapa allt och vara uppe inom mågra minuter efter det du har fixat ny hårdvara (må vara att det går segt genom ett enkelt NAS men du är iaf uppe och snurrar).

Nertid kostar bra mycket mer än hårdvara, på ditt företag har ni förmodligen ett cashflow dagtid på runt 60 000.- i timmen för utvecklarna.
i mitt antagende av din budget bidrar då varje användare med 500 spänn i hårdvara (en krona per dag och anvädare under en beräknad livslängd på två år), det är för en utvecklare runt 30-45 minuters debitering...
Så snåla inte in på absolut allt, och framförallt lyssna gärna på oss här men ta inte vad vi säger för sanning, händer det något är det du som får kliva upp på barikaderna och förklara dig.

Permalänk
Medlem
Skrivet av Kran:

Fick avslag på budgeten så blir nog 1st E5645 med 3*8GB RAM, sen köper jag till en till CPU och mer RAM om några år.

Jag kör 5 stycken SharePoint 2010 servrar och en mssql för utveckling/test på 24GB ram. Det går men det hade varit roligare med 48GB. Köp mycket minne! Övrig hårdvara är någon Xeon hex-core och två stycken 256GB SSD för lagring av de virtuella maskinerna.

Att köpa en dator med en extra CPU-sockel och extra många minnesplatser utan att utnyttja dom är bara dålig ekonomi, rätt var det är har cpu-familjen försvunnit från marknaden och minnet är svindyrt.