Bygga server/dator till beräkningar

Permalänk

Bygga server/dator till beräkningar

Hej Clockers,

Jag har ett projekt jag skall ta mig ann där vi skall ha igång antingen en server eller en starkare stationär dator, skulle uppskatta era råd.

Har jobbat med detta främst i mycket större skala (Datacenters) och här handlar mycket om att hålla nere dom inititiala kostnaderna under dom första sex månaderna medans vi kör tester/utvärderar.

Behoven hårdvara:

8-10 cores
32GB ram
Raid 5 (ca 240GB usable)
GB Nic (behöver alltså inte 10gb)

Har kollat på server och har plockat ihop så att jag kan köpa både Dell och HPe variant med ovan spec för ca 15-18 000

Alternativet är att köpa en bättre stationär dator typ 2700X eller i9 CPU och utrusta med samma. Fördelen blir att andrahandsvärdet är högre om projektet skulle gå i sank.

1.) Tankar på hårdvaran?

Behoven mjukvara

Datorn skall stå antingen i datorhall eller hemma hos någon (kostnadsfråga). Datorn skall därefter sitta och göra beräkningar och vi skall fylla på ett flöde med ytterligare beräkningar (måste alltså inte vara lokalt för att kunna fylla på)

Har kollat på mjukvara typ Windows server 2016 Standard, men det blir en hel del pengar om man skall testa under ett halvår (Läs 9110 utan Software Assurance och 15 300 MED SA utöver 3 år)

2.) Finns det något smidigt alternativ om vi bara skall köra Windows applikationer? Tanken är att dennna skall vara "always on" finns det något special läge i Windows Pro tex som säkerställer 100% upptid? (självklart med förståelsen att detta har låg fault tolerance eftersom vi har single power supply och CPU/kyla)

3.) Andra valfria förslag?

Azure/AWS är kostnadsmässigt för högt för att vara ett alternativ innan någon föreslår detta

MVH
Victor Ekman

Visa signatur

/ Victor

Permalänk
Medlem

Vilken mjukvara används för beräkningar? Måste ni köra Windows?

Mvh
/z

Visa signatur

C2D E6300 @ 3.2HGz 1.2V | Thermalright 120 Extr. | Gainward 8800 GT Golden Sample |Samsung 2x500Gb | Corsair VX 550V | Antec P182 [img]http://valid.x86-secret.com/cache/banner/421648.png[/img]

Permalänk
Medlem

Skulle satsa på en GPU istället och använda mig av CUDA. Då ni inte ger så mycket info om vad det är som ska beräknas o om ni kodar det själva eller inte så kanske det här förslaget inte går. Men det är mina starka rekommendationer om ni ska ha den för beräkningar. CPU är bra mycket slöare.

Visa signatur

Poff

Permalänk
Medlem

Om du kan, komplettera gärna med vilka mjukvaror ni kör och hur kritisk arbetet är under testet.

Är det så att mjukvaran har mycket interprocess kommunikation och handskar med stor mängd data till ram som även skyfflas över ofta? ...eller agerar den som en mjukvaru-renderare med små sektioner åt gången m.a.o lägre minnesprestanda-krav?

Om ram-hastigheten inte spelar roll så räcker standard ram, annars gärna ca:3000MHz minnen med lägre latenser är att föredra om hastighet och respons är viktigt (utgår från att ni väljer Ryzen eller Threadripper system)

Om bandbredden är viktigt för era tester så är threadripper att föredra med sina flera minneskanaler, annars Ryzen 2700X föreslagsvis.

Med ev. kritiskarbete menar jag kör ni ett proof of concept period där små fel som sällan eller osannolikt sker är ok eller ej? Om det är kritiskt så är ECC ram att föredra. Oftast räcker vanliga icke ECC minnen.

Permalänk
Medlem
Skrivet av crazysanta:

Hej Clockers,

Jag har ett projekt jag skall ta mig ann där vi skall ha igång antingen en server eller en starkare stationär dator, skulle uppskatta era råd.

Har jobbat med detta främst i mycket större skala (Datacenters) och här handlar mycket om att hålla nere dom inititiala kostnaderna under dom första sex månaderna medans vi kör tester/utvärderar.

Behoven hårdvara:

8-10 cores
32GB ram
Raid 5 (ca 240GB usable)
GB Nic (behöver alltså inte 10gb)

Har kollat på server och har plockat ihop så att jag kan köpa både Dell och HPe variant med ovan spec för ca 15-18 000

Alternativet är att köpa en bättre stationär dator typ 2700X eller i9 CPU och utrusta med samma. Fördelen blir att andrahandsvärdet är högre om projektet skulle gå i sank.

1.) Tankar på hårdvaran?

Behoven mjukvara

Datorn skall stå antingen i datorhall eller hemma hos någon (kostnadsfråga). Datorn skall därefter sitta och göra beräkningar och vi skall fylla på ett flöde med ytterligare beräkningar (måste alltså inte vara lokalt för att kunna fylla på)

Har kollat på mjukvara typ Windows server 2016 Standard, men det blir en hel del pengar om man skall testa under ett halvår (Läs 9110 utan Software Assurance och 15 300 MED SA utöver 3 år)

2.) Finns det något smidigt alternativ om vi bara skall köra Windows applikationer? Tanken är att dennna skall vara "always on" finns det något special läge i Windows Pro tex som säkerställer 100% upptid? (självklart med förståelsen att detta har låg fault tolerance eftersom vi har single power supply och CPU/kyla)

3.) Andra valfria förslag?

Azure/AWS är kostnadsmässigt för högt för att vara ett alternativ innan någon föreslår detta

MVH
Victor Ekman

Leasa en dator ?

Fast själv tänker jag direkt på att snickra ihop en X79 dator med en 10-12 kärnig Xeon och pillra dit billigt ECC minne.
~2500:- för moderkort (kollade på Supermicro X9SRA), 2500-3000:- för CPU (12 kärnig Xeon E5-2695v2) och under 1500:- för 32GB 1600MHz ECC minne.
Men en ebay dator är ju bara aktuell om det inte är supernoga att allt fungerar direkt och fortsätter att göra det

Permalänk
Medlem

Varför RAID5? 2st 240-256GB SSD i RAID1 funkar väl minst lika bra och är säkrare och snabbare på det mesta och man undviker att skriva sönder disken med paritet som man kan göra med RAID5.
Har inte använt RAID5 i jobbet på 10 år i ungefär, behöver man prestanda kör RAID1 eller 10, utrymme kör RAID6 (med riktig kontroller med skrivcache).

När det gäller hårdvaran i övrigt så är givetvis GPU att föredra om det funkar med det som ska beräknas, gör det inte det så tycker jag AMD Ryzen 2700X eller Threadripper som gått ner i pris nu inför lansering av Threadripper 2.
Som de andra skrev så är frågan om ECC minne behövs eller ej och bandbredd på minnet och behov av PCI-E lanes spelar också in på val av plattform.

Sen när det gäller operativsystem så finns det Evaluation av Windows Server, tror den är på 180 dagar så bör passa bra med ert halvårs test...

Permalänk
Medlem

Det gäller att ni vet var flaskhalsarna hamnar i systemet och satsar där. Om beräkningarna vill ha många kärnor och så vidare. Ska den sitta i ett datacenter så behöver den kunna monteras i rack eftersom varje höjdenhet kostar pengar.

Så länge inte tillförlitlighet är viktigt så hade jag kört på en vanlig PC. Du kan även i Windows 10 stänga av energisparfunktioner, men för att stäng av automatiska uppdateringar så behöver du tredjepartsverktyg.

Permalänk

Tack för alla svar, till en början mest tester av olika modeller och beräkningar, blir blandad kompott av program, men främst quadrant plus.

I testerna så skall vi helst inte ligga nere längre än 30 min under 24x7, men ingen kostnad/krav kopplad till önskemålet. Så i testet blir det endast fault tolerance 1.

Så ser nu ut som att vi kör med flercore consumer grade cpu i steg 1 och sen byter över till riktig hosting om allt går väl.

Någon som testat 6 månaders windows server standard ännu? Begränsningar? Hur svårt är det att installera om man inte gjort det innan?

Gällande raid så kör vi nog som ni säger med raid1 istället.

Bästa verktyget för att komma åt maskinen remote?

Visa signatur

/ Victor

Permalänk
Medlem

Mina tankar är just att molntjänster skiner när man vill hålla nere de initiala kostnaderna, synd att det avfärdas.

Det är ju mycket "extra" som kan komma med fysisk. (Ups, datacenterplats, internetpipa osv)

Hur som helst.
Är det ett företag som står bakom projektet eller ett privat projekt?
Jag tänker att en konsult som står still kostar pengar om systemet är nere, och då kan en snabb hw support vara en billig försäkring.
Detta får man enklast om man köper ett färdigt system från en OEM. Jag tänker på onsite next business day.

Men är det ett privat projekt och tiden som läggs inte direkt ger en kostnad så kanske lite stillasittande är ok för att hålla nere de reella kostnaderna. Om servern/datorn ändå ska stå hemma hos någon.

Jag skulle även vilja stämma in i att du bör undvika raid5 och att Windows server kan testas gratis i 180 dagar. Sedan kan du installera om och få nya dagar. Men du får bara köra dev/test på en sådan licens.

edit:99,7% uptime är ganska orealistiskt att lova.
Du måste ju patcha maskinen om den ska vara internetexponerad.
Bättre att i förväg planera in ett servicefönster på 2-3h varje månad, så användarna kan förbereda sig. Förslagsvis i närheten av 'patch tuesday', men någon dag efter så man kan googla när man stöter på eventuella patchproblem.
Skickades från m.sweclockers.com

Lade till text
Permalänk
Medlem

Bygg ett script i R så kan du göra det på vilken dator som helst tar ju bara längre tid R används ju för göra avancerade uträkningar till AL.

Permalänk
Medlem
Skrivet av henkiii:

99,7% uptime är ganska orealistiskt att lova.

'six-nine' eller 99.9999% upptid var standard på telekomutrustning på 80-90-talet - det motsvarar ca 31 sekunder ned-tid/år och var ofta förknippat med skadestånd och utredningskrav och varför det hände om ned-tiden var längre än så...

Gissar att önskan/kravet gäller fortfarande för infrastruktur för Internet som routrar och switchar med vida mycket mer avancerad firmware än som någonsin fanns 80-90-talets telecomutrustning - det blir alltid ett liv när någon mer central router/switch går ned inom ett företag eller en ISP...

"bara" 99.7% upptid är väldigt generöst och ger hela 26 timmar/år att göra olika åtgärder...

---

Det är inget som går att bygga på VM-maskiner tro? - då kan man hyra maskiner och beräkningskapacitet efter behov och inte betala hela tiden för en maskinpark som kanske nyttjas dåligt.

Permalänk
Medlem
Skrivet av xxargs:

'six-nine' eller 99.9999% upptid var standard på telekomutrustning på 80-90-talet - det motsvarar ca 31 sekunder ned-tid/år och var ofta förknippat med skadestånd och utredningskrav och varför det hände om ned-tiden var längre än så...

Gissar att önskan/kravet gäller fortfarande för infrastruktur för Internet som routrar och switchar med vida mycket mer avancerad firmware än som någonsin fanns 80-90-talets telecomutrustning - det blir alltid ett liv när någon mer central router/switch går ned inom ett företag eller en ISP...

"bara" 99.7% upptid är väldigt generöst och ger hela 26 timmar/år att göra olika åtgärder...

Visst GÅR det att leverera 99,9999 med lite flyt och bra planering.
Men med förutsättningarna som TS radar upp med ensam windows server som eventuellt står hemma hos någon så tycker jag det verkar orealistiskt att garantera 26.
Ett enda hårdvarufel så spricker ju tiden. Bara windows patchning äter nog hälften, utan att det ens strular.

Men om det inte finns ett vite på SLA brott så kan man iofs lova lite vad som helst.

När du har krav på 99,9999 tänker jag att det finns lite mer resurser att realisera det, än vad det verkar finnas här.

Skickades från m.sweclockers.com