Hej!
Först och främst vill jag säga att jag är ny med att arbeta med servrar, så ha det i åtanke tack.
Jag har en Java-applikation (en simulator) som använder nästan 50% av min CPU-kraft. Detta är fallet när jag kör programmet på mest effektiva sätt. Det tar ungefär 30 sekunder för mig att köra en simulation så här.
Min dator:
Windows 10.
Intel(R) Core(TM) i5-2500K CPU @ 3.30GHz, 3400 MHz
CPU type 4x , 3400 MHz Instruction set x86, x86-64, MMX, SSE, SSE2, SSE3 Original Clock Speed 3300 MHz L2 cache 256 kB (On-Die, ATC, Full-Speed)
8GB of DDR3 RAM
Om min dator kör programmet på full kraft om och om igen, 24 timmar/dag, så kan jag köra ungefär 5000 simulationer/dag.
Inledningsvis är detta OK. Men snart ökar kravet till ca 10k körningar/dag, och om några månader kanske den siffran ökat till 100k/dag.
Programmet får indata från en databas, samma databas som (triggers) kör igång en simulation.
Jag har i princip ingen erfarenhet vad gäller att hyra servrar på detta sätt, men jag har kollat runt och tycker det är svårt att välja vilken typ av server jag ska satsa på. Det finns dedikerade servrar, virtuella servrar (AWS, t ex), osv.
Vad tror ni vore bäst för mig? Billigast är inte nödvändigtvis bäst såklart, men jag klarar av ca 1000-lappen/månad till att börja med. Längre fram är 2-3k/mån inga större problem.
Tack på förhand.