Inlägg

Inlägg som MartenKL har skrivit i forumet
Av MartenKL
Skrivet av jocke92:

Då får du ett problem. Administration. I core kan du inte få någon hyper-v administrationskonsol. Du kan administrera från din klientdator om den har Windows 8. Communityt har dock gjort ett plugin som kan göra lite basic konfiguration, bland annat starta, stoppa och visa hyper-v maskiner. Jag krånglade en del med 2008:an hemma för att få remote management, men de var enklare nu.

Så länge du inte kommer maxa all CPU med en maskin är nog två cpu:er bättre, eftersom det ger mer minnesbandbredd.

Jag tror nog det som ska likna ett serverrum kommer behöva kylning, dör inte servrarna av det så kommer operatörens utrustning det.

Från Microsofts rekommendationer på sidan 136 i http://msdn.microsoft.com/library/windows/hardware/jj248719;

"Server Core Installation Option
Windows Server 2012, Windows Server 2008 R2, and Windows Server 2008 feature the Server Core installation option. Server Core offers a minimal environment for hosting a select set of server roles including Hyper-V. It features a smaller disk, memory profile, and attack surface. Therefore, we highly recommend that Hyper-V virtualization servers use the Server Core installation option.
A Server Core installation offers a console window only when the user is logged on, but Hyper-V exposes management features through WMI so administrators can manage it remotely. For more information, see Resources later in this guide.
Dedicated Server Role
The root partition should be dedicated to the virtualization server role. Additional server roles can adversely affect the performance of the virtualization server, especially if they consume significant CPU, memory, or I/O bandwidth. Minimizing the server roles in the root partition has additional benefits such as reducing the attack surface and the frequency of updates.
System administrators should consider carefully what software is installed in the root partition because some software can adversely affect the overall performance of the virtualization server."

Av MartenKL
Skrivet av Sir. Haxalot:

No offense, men du har verkligen inte en jävla aning om vad du håller på med. Det enda som händer i den här tråden är att erat företag slösar större mängder pengar. Regel nummer ett när man vill ha driftsäkerhet och redundans är att bygg förihelvete inte själv.

Sen så får du ju gärna ta fram några av de benchmarks som du hävdar visar att man förlorar prestanda på att ha flera processorer och speciellt på att använda fler än 4 minnesstickor. Det kan ju dessutom diskuteras att du köper 4x32GB minne för nästan samma pris jag köper serverblad med 384GB minne och dubbla Hex CPUer...

Dessutom så säger du att ni är 15 pers, det finns inte en chans i helvetet att ni behöver 8 SSDer för att tillfredsställa prestanda kraven. Att du sedan sitter och argumenterar för att du ska köpa de snordyra SLC SSDerna när du förmodligen inte har gjort någon undersökning på hur erat användningmönster ser ut (hur många IOPS ni behöver, vid vilka blockstorlekar, hur mycker random etc), är extremt oprofessionellt.

Also, hur i helvete kan du ha en budget på 200 000:- för en server utan att ha några som helst möjligheter att påverka miljön den står i?

2+4=6st MLC baserade SSD. Så jag är lite bättre på matte och vet vad för SSD jag pratar om.
en enda användare som skall öppna ett projekt blir begränsade av fysiska diskar.

Ganska otrevligt att påstå att jag inte vet något då jag troligen byggde min första 24/7 i början av nittio-talet och har köpt och driftat över trettio servrar sedan dess. Regeln är tydligt, det är inte vårt rum, det är full access för operatörer (de har nästan uteslutande passiv utrusnting som inte bidrar till värmeutvecklingen). Dörren måste vara stängd (det går inte idag då vår server skulle dö). Skulle vi öppna på något sätt skulle operatörerna anmäla direkt till värden. Du kanske inte respekterar min serverkompetens men detta har vi gått till botten med. Hyresavtalet går ut om ett år så alla fasta installationer måste skrivas av på ett år.

Jag behöver inte bry mig om blockstorleker/random etc, jag har verkligheten att testa med. klienter med 510 eller s3700 diskar. Vi vill ha den prestanda vi kan ha när vi arbetar lokalt med projekten när vi arbetar med de på servern för att användarna inte ska riskera att något blir ur sync för att de upplever servern för långsam.

Att vi inte behöver CPU ser jag ju på våran befintliga. Vi kör inga SQL eller webservers lokalt, det mest avancerade är väl AD-tjänsterna. Flaskhalsen kommer fortfarande vara IO, aldrig kommer denna konfig nå 100% processorload medans nätet på klientsidan kommer nå full bandbredd.

Återigen personangreppet?
Jag bad om fler ögon om jag missat något, en sak som kom i en anan är hur jag skall presebtera de 4 800GB diskarna för OS, jag menar på att tre 800GB volymer är lagom, kommer man över 2TB förlorar man väl en del funktioner och kompatibilitet med backuplösningar?

Av MartenKL
Skrivet av Petterk:

RAID-kortet kommer väl ändå presentera det som en volym för din Hyper-V host, sen måste du antingen lägga en VHDX där för filserverns lagring eller dela ut den direkt till filservern. Så länge det är en volym/array iaf. Delar du upp det så klumpas det inte ihop.

Det kan man ju välja, jag föredrar att göra tre logiska volymer som servern tror är tre separata diskar. Kanske fyra eller som du säger en, skall testa mig fram. Det är riktiga raidcontrollers, inga hba med mjukvaruraid.

Av MartenKL
Skrivet av Petterk:

Detta verkar igen vara prisjaktpriser med priser från skräpbutiker. Det är 77 502:- för diskarna från Misco, eller 84 000:- inkl moms från Dustin, för bara ett gäng SSD-diskar.

Hur du ska lagra din host, och flertalet gäst-operativ är en fullt berättigad fråga vilket du inte riktigt svarat på när den kommit upp tidigare. Vad ska ligga var?

Eftersom det är för en virtuell miljö förstår jag inte heller fascinationen med en CPU.

@Mikaelb

Flera Intelchassin har två nätagg, tror P4216XXMHGC är ett av dem. Du får kolla hos Intel när det gäller specifikationer.

Jag har fått en bra Deal från Dustin, inga fantasipriser. Beställt och klart.

Det första adapteckortet har två diskar, vardera 400GB SSD. Dessa speglas och partitioners en typ av matrx raid 10 på två diskar, exakta storleken på vad UEFI-bios kommer att se är jag inte säker på men ca 50GB per os.

Det andra adapterkortet har 4st 800GB SSD i RAID 5. dessa serveras som 3st logiska 800GB volumer till windows server, enbart för den instans som kör fileserver. Windows Server klumpar ihop detta till en enhet och delar ut den.

Idéer till konfig har jag fått ur det här dokumtet:
http://msdn.microsoft.com/library/windows/hardware/jj248719

Jag kan nästan svära på att min server aldrig kommer lyckas använda mer än 8 trådar samtidigt så jag tänker dessutom troligen slå av hyperthreading, men det skall testas. Man ska ju aldrig säga aldrig...

Av MartenKL
Skrivet av Mikaelb:

1)Du kommer förlora på många plan om du kör på en snordyr CPU istället för att köra 2st sämre. Inte minst när det gäller bandbredd mot minnen (Typ 2x E5-2620 är nog ett vettigare val både för prestanda och plånbok)

2) Undrar även över ditt val av minne, hur motiverar du 4x32GB som är otroligt dyrt jämfört med 8GB eller 16GB stickor. Välj hellre ett moderkort med fler minnesslotar om du är orolig över framtida expansioner. (med mer än 8 minnen måste du dock ha dual cpu)

3) Antar att tänkt köra ditt host OS på dina 2x400GB SSD? Det är totalt bortkastat.

4) Köp dubbla PSU.

5) Köp en färdig lösning från din favoritleverantör

1. Nej inte enligt Microsoft.
http://msdn.microsoft.com/library/windows/hardware/jj248719
Table 1. Processors. Dessutom har jag då redan nått taket. Det finns också andra rena benchmarks som visar att fler CPUer är inneffektivt.

2. Varje processor har bara 4 kanaler, stoppar du fler dimmar i får du sämre bandbredd och högre latency. Moderkortet har 8 dimm-platser per CPU, jag vet inte varför du skulle vilja ha fler, med mer än 2 dimm per kanal går minnesbussen ner till halva klokfrekvensen.

3. Host och child på RAID 1 400GB SSD ja. Såklart inklusive servermjukvara som licensmjukvaran från Autodesk etc. Regel 1, ha alltid mer än 50% ledigt utrymme på kritiska OS-partitioner. Gäller än idag, där går gränsen för när prestanda börjar sjunka på såväl fysiska som elektroniska diskar.

4. Det är dubbla platinum-nätagg, något som varken HP eller Dell kunde fixa i den klassen. [edit] Fel av mig, dell hade det som option.[/edit]

5. Först var det Compaq, sedan Dell, efter det HP, nu tycker jag det känns som hela modellen med 18 led från tillverkare till konsument känns förlegad och är ett sjunkande skepp. Dell har ju dessväre en stor säljorganisation i danmark som inte är tillräckligt vass, inge återförsäljare har tillräcklig kompetens.

Ditt sista inlägg känns lite väl obalanserat då du missat många fakta som info om moderkortet, hur DRAM fungerar i C602, att chassit har redundant strömförsörjning etc. Jag har ett behov som är överställt allt annat, minska värmeutvecklingen i rummet, rummet får ej modifieras eller förses med luftkanaler, det är redan undersökt. Varför skulle dina behov vara mina eller vice versa?

Om du utifrån mina behov,
1, max 300W server under full load
2. Extrem filserverprestanda (Cad projekt som innehåller uppemot 100 filer a 5MB styck) skall addas till klienterna
3. minst 2TB lagringsutrymme för filer
4. 20% Shadowcopies
5. Automatisk backup, NAS och sedan över internet.
6. Redundans och driftsäkerhet

Vad är då din konfig som är bättre och billigare än min?

Av MartenKL

Jag börjar gå i mål. Jag skippar operativ tills jag testat mig fram till vilken kombination som är bäst för oss pris/prestanda.

Listan
4 INTEL S3700 SERIES 2.5" 800GB SSD SATA/600 MLC
8 HITACHI ULTRASTAR 7K4000 3TB 7200RPM SATA/600 64MB
2 SYNOLOGY DISKSTATION DS1513+
2 INTEL S3700 SERIES 2.5" 400GB SSD SATA/600 MLC
1 INTEL Air Duct FCPUPMAD
1 Intel Remote Management Module
1 INTEL AUPSRCBTP heat sink
1 KINGSTON 128GB 1333MHZ DDR3L ECC CL9 LRDIMM (4X32GB) QR X4 1.35V W/TS
1 INTEL XEON E5-2690 8-CORE 2.9GHZ 20MB S-2011
2 ADAPTEC RAID 7805Q SINGLE
1 INTEL CHASSIS P4216XXMHGC SGL CHASSIS 2.5IN DRIVE 750W PSU
1 INTEL SERVER BOARD S2600CP2
1 INTEL X520-DA2 SVR ADAPTER PCI-E DP 10GBPS LOW PRO
1 INTEL AXXTPME5 TPM Module
1 DELL POWERCONNECT 5548P SWITCH
2 DELL POWERCONNECT 5M SFP+ DIRECT ATTACH TWINAX CABLE

Totalt 182 415:- EK ex moms eller 228 018:- ink moms.

Hur och när jag produktionssätter beror på hur det går och huruvida man kan köpa 2012 R2 licenser eller måste göra det genom att köpa SA, vi kanske avvaktar tills R2 släpps om det är för meckigt, primära är att nu dra igång testning av olika virtualiseringsupplägg.

Av MartenKL

ja, enligt microsoft guidelines ska mamman köras som en coreinstallation, alltså ingen roll förutom att det är den enda instansen med "direkt" hårdvaruaccess.

Av MartenKL
Skrivet av henkiii:

Datacenter är bara vad Microsoft kallar licenstypen, själva installationen skiljer sig inte ifrån "standard" Windows server.

Det är redan klart tidigare i tråden, jag syftade mer på segmentering ur marknadsföringsperspektiv.

Av MartenKL
Skrivet av Petterk:

O andra sidan är det billigare att köpa en 2P server med två Sandy Bridge-EP, licenser och ett gäng SAS-diskar än att köpa eget bygge plus massor S3700. Varför nu inte S3700 skulle platsa i en Dell, Fujitsu, Cisco eller vad man nu vill ha, ska du ha ett iordninggjort rum så har du väl för övrigt rack och UPS, men du har såklart towerchassin med hotswapslädar om du vill had det.

Jag är fortfarande lite nyfiken på vad du menar med att köra filserver under Hyper-V. På ESXi vill ju de flesta köra kontrollerkortet/diskarna direkt till filserverns VM via passthrough/VT-d, eftersom man knappast får ut särskilt mycket prestanda annars. Virtualisering är inte det första jag tänker på när man säger behov av diskprestanda. Hur mycket det påverkar Hyper-V vet jag dock inte. Men det betyder ju alltid någon form av emulering av en disk-kontroller.

Jag måste verkligen kolla upp prestanda, filservern är ju huvudrätten, resten av servrarna skitar jag nästan i hur prestanda är på, skulle vara print möjligen som har någon betydelse. Jag bara antog att Windows Server Datacenter Edition hade grym IO.

Av MartenKL
Skrivet av HurMycket:

Input lag/svarstid/vad det nu heter är extremt hög på den. Det är helt omöjligt att överhuvudtaget använda en mus. Game Mode lindrar delvis detta.

Dessutom surrar den irriterande.

Dessutom har iallafall inte jag lyckats få bilden att inte hacka konstant när den är kopplad till en dator.

Dessutom blir det konstiga artefakter när man spelar upp film från USB-disk. Detta när kameravinkeln byts.

Dessutom har iallafall inte jag lyckats få bilden att inte komma efter ljudet.

Dessutom går det inte att få bra bild om källan är lågupplöst, t ex TV. (1080p-källa ger däremot bra bild.)

ETT ELLER FLERA AV MINA PROBLEM KAN BERO PÅ ATT TV:N "VÄLTE" I FRAKTEN ENLIGT POSTUTDELAREN. Den låg iallafall ner när den kom och postutdelaren sa att han hade ställt den upprätt när han lastade.

http://www.hdtvtest.co.uk/news/panasonic-tx-p42ut50b-p50ut50b...

Skit bakom spakarna tror jag.
Det är en billig TV så den klarar inte 4:4:4, dvs du skall inte skicka en sådan signal från datorn, med AMD-grafik hittar du inställningen i Catalyst Center under My Digital Flat Panels/Pixel Format. Öht så missar många inställningarna för för grafikkortet när de ansluter datorn till TVn, de påverkar bilden mer än inställningarna i TVn, speciellt om kortet skickar en skalad bild (overscan) till en Full-HD-TV.

Av MartenKL
Skrivet av Petterk:

Det enda är ju egentligen att väldigt få bakplan/kontrollerkort visar status (och lysdioder) på tredjepartsdiskar. Dell verkar ju inte heller tycka om tanken att man kan stoppa i egna diskar som inte är från dem dock. Ska det dessutom vara support lär de ju vara ännu känsligare, men det är väl också pga supportkontrakt man köper från dessa leverantörer.

Det hade du rätt i.
Blir tvungen att köpa 16st 500GB 7.2k diskar för att få full uppsättning slädar. Men inte så dyrt, servern med licenser och allt 85 papp ex moms (utan switch, NAS och SSD). Slutnotan blir ganska lik oavsett om jag tar Intel eller Dell.

Av MartenKL
Skrivet av Petterk:

O andra sidan är det billigare att köpa en 2P server med två Sandy Bridge-EP, licenser och ett gäng SAS-diskar än att köpa eget bygge plus massor S3700. Varför nu inte S3700 skulle platsa i en Dell, Fujitsu, Cisco eller vad man nu vill ha, ska du ha ett iordninggjort rum så har du väl för övrigt rack och UPS, men du har såklart towerchassin med hotswapslädar om du vill had det.

Jag är fortfarande lite nyfiken på vad du menar med att köra filserver under Hyper-V. På ESXi vill ju de flesta köra kontrollerkortet/diskarna direkt till filserverns VM via passthrough/VT-d, eftersom man knappast får ut särskilt mycket prestanda annars. Virtualisering är inte det första jag tänker på när man säger behov av diskprestanda. Hur mycket det påverkar Hyper-V vet jag dock inte. Men det betyder ju alltid någon form av emulering av en disk-kontroller.

Rummet är dessvärre inte vårt utan ett gemensamt i fastigheten och vi kommer inte få hjälp med ventilation från värden då det är meningen att det ska vara tom så det är enkelt för operatörerns att komma åt sin utrustning.

Men visst är det intressant, jämför med den här som bas
http://configure.euro.dell.com/dellstore/print_summary_detail...

Men vet ej om jag kan köra S3700 i den.

[edit]Intressant, verkar som det går att köra den, är nu en het kandidat, inväntar komplett offert från Dell. Den stora grejen att de dessutom erbjuder 2650L.[/edit]

Deras switch 5548P verkar ju som gjuten, 9000:- hos multitronic, ink 10GbE uplink.
http://www.dell.com/se/foretag/p/powerconnect-5500-series/pd?...

Av MartenKL
Skrivet av Mikaelb:

Att SSD är snabbare kommer jag inte säga emot men frågan är bara om det behövs. Att det blir en ruskig prestanda med SSD är solklart, sitter med 4x840 SSD i raid10 i min arbetsdator, den är likvärdig 8x15KRPM setups i våra servrar eller något snabbare tom. Jag har själv ofta en tendens att oroa mig över diskprestanda helt i onödan. Mycket sällan har jag upplevt att någon flaskhals hamnar där, inte ens på relativt hårt belastade SQL maskiner. (Istället kompenserar man med arbetsminne som är "gratis").

Har missat att påpeka ditt val av mängd minne tidigare också, här tycker jag defintivt du ska trycka i mer. Minimum 128GB. Gör ingen skillnad på priset och är lätt värt det för att få bra prestanda.

Tycker inte du har någon viktigpetterstil, trevlig med någon som kan argumentera för sina val även om jag inte håller med i alla.

Håller med om minnet, blir 8st 16GB 1,35v 1600MHz ECC, vilka beror på vad moderkortet landar på.

Chassi har jag nu hittat ett proffsigt Intel med hotswapbays och redundant PSU. Nu är jag osäker på vilken kylare som lämpar sig, vill ha en enorm.
http://ark.intel.com/products/56355/Intel-Server-Chassis-P421...

Hoppas moderkortet från SuperMicro fungerar i det chassit och att det finns rättt kablage att få tag på mellan adaptec-kortet och vaggorna i chassit.

Av MartenKL
Skrivet av Mikaelb:

1. Absolut vinner du i form av värmeutveckling och störmförbrukning, om du anser det är skäl nog så köp SSD Jag anser att det är galenskap rent ekonomiskt dock. Betänk även att exempelvis en raid1 med 2x400GB supersnabb SSD absolut inte nödvändigt är snabbare än 4x300GB i vettig konfig.

2. OK, om du tänkt köra med än fyra virtuella så visst. Tänk på att varje standardlicens innebär 2 virtuella så räkna vilket som blir billigast. Du vinner inget i övrigt på att köra datacenter.
3. Jag delar inte din åsikt, jag skulle aldrig köra affärskritiska applikationer på en maskin jag själv byggt. Men du kanske är mer insatt än mig och lyckas bra med det.
4. En maskin för varje applikation är alltid bäst, har man möjlighet vilket du har om du ändå köper en datacenter så se till att en maskin gör en sak. Det kommer du vinna på i längden.
5. Om jag var du hade jag kört på följande för att halvera kostnaden. Iställer för att köra 10Gbit vilket är otroligt dyrt skulle jag kört 4x1Gbit trunkat till server.
#1st 2620 24p POE 100Mbit för telefoni och accesspunkter som kräver POE.
#1st 2810 24p Gbit för klientdatorer och server.

Nätverk beror ju dock på hur ni tänkt expandera i framtiden, men om jag tänkte expansion hade jag valt en chassibaserad lösning istället, exempelvis 5406zl eller dess lillebror men då mister man stöd för 10Gbit.

Angående kylning så låter det som du måste ha någon form av ventilation oavsett vilken lösning du väljer och med den kan man ju leda bort värmen ganska enkelt om man bara har en server.

1. en Raid 1 av två 400GB S3700 har accesstider i storleksordningen 100 ggr lägre än vilken array du än bygger av fysiska diskar med någon som helst redundans. Hastigheten på en 15K 300GB är ca 120GB/s. På 4st med minimal redundans får du maximalt 460MB/s läs och 240GB/s skriv.
Här ett test med 12st 600GB 15K diskar i absolut bästa möjliga serverhårdvara.
http://www.storagereview.com/jetstor_sas_616isd_10g_iscsi_san...
Bästa skrivhastigheten som kan noteras är 617MB/s, visst det är bättre än de 450MB/s man får med S3700 i Raid 1, men i Raid 10 skulle med enbart fyra diskar SSDn segla om klart. Så hur det inte är nödvändigt att intel S3700 är snabbare i Raid 1 än 4st fysiska hårddiskar oavsett sort vet jag inte hur du menar. Ovanpå det har de fysiska diskarna lägre MTBF och ojämnare prestanda.
http://www.hgst.com/tech/techlib.nsf/techdocs/DAC6606EE8DDF5D...

Intels promomaterial är förvisso vinklat men synen på att fysiska diskar på något sätt skulle vara tillförlitligare är förlegad.
http://www.intel.com/content/www/us/en/solid-state-drives/ssd...

3. Det är ju knappast som att skaffa våglöd och pyssla med ytmontering. Hot-plug behövs inte eftersom det är ett normalt kontor med kontorstider.

4. Ok, då blir det definitivt Datacenter

5. Nja, kostnaden för att köpa begagnade delar som inte längre säljs är inte heller att underskatta, såg nu nya modeller i 5xxx med inbyggda 10Gb uplinks, hoppas de inte blir för dyra bara. 10GbE var framtiden för 15 år sedan, jag är trött på att vänta nu, utan det känns det inte lika relevant att maximera IO på disksidan. Jag har redan 2st typ 2810 så kostnaden att fortsätta med PSUer till varje telefon och nöja mig med 1Gbit är lägre än hälften men inte relevant. Att inte byta server är gratis, kostnaden för hela omläggningen blir ca 160k ex moms, avskrivet på 36 månader blir 4 444/månad eller 342 per arbetsplats och månad. Det är inte ens en halvtimme fakturerbar tid och månad. Jag räknar med att spara ca 2 timmar per arbetsplats och månad på dessa investeringar. Då har jag ändå tagit med en mängd förbättringar utöver prestanda (arbetsplatsen, en kabel mindre, backup i tre nivåer, shadowcopy, local nas och extern nas).

Ursäkta viktigpetterstilen, du har hjälp mig massor och det är jag tacksam för, i slutändan är det SSD vs HDD som är den avgörande kostnaden och den som ger absolut störst skillnad. Det är fortfarande ett work in progress och slutligen kommer pris och tillgänglighet spela in eftersom jag hoppas kunna starta bygget (in)om två veckor.

Av MartenKL
Skrivet av Petterk:

Ena aggregatet sitter inomhus och andra utomhus – kondensorn dit går antingen kylledningar med gas/köldmedium eller vatten. Kontakta kylfirma så kan de nog fixa det utan större problem. Det är ingen stor anläggning det handlar om. Fastigheten kanske redan har system som går att utnyttja för den delen.

I övrigt vilken virtualiseringslösning handlar det om? Ska du verkligen köra filserver virtuellt?

E5-1660 hittar du främst i arbetsstationer, men kör du inte SSD och server från en leverantör får du ju istället två riktigt snabba processorer i två processorkonfiguration.

gällande filserver virtuellt var min plan först som en egen server, dent köttiga, sedan en massa småservrar men efter övertalning från en mängd kunniga på virtualisering har jag ändrat mig. Jag vet fortfarande riktigt.

Fördelen med 1660 är att jag bara behöver en propp men det kan vara bra att den kan köra turbo vid eventuellt behov, tvåproppsmoderkort har ofta en del inaktiva delar då bara en propp sitter i så det känns meningslöst.

Microsofts HyperV antar jag med Windows Server 2012 Datacenter.

Av MartenKL

Grovt verkar 15k 600GB SAS dra strax under 15W vare sig i idle eller load medans en S3700 drar under 1W i idle men hela 7-8W i load.
http://www.tomshardware.com/reviews/ssd-dc-s3700-enterprise-s...
http://www.tomshardware.com/reviews/sas-6gb-s-hdd,2402-14.htm...

Då levererar SSD minst dubbel prestanda i alla kategorier.

Nu har jag halverat diskantalet (dubblat storleken), då blir det Raid 1 och Raid 5 istället för 10 och 6. Men för att spara utrymme och energi (värme).

Av MartenKL
Skrivet av Mikaelb:

1) Hur har du kommit fram till att 6G SAS 15krpm inte duger?
2) Varför ska du köra 2012 Datacenter? Det är är absolut mer prisvärt att köpa 2x2012 Standard för fyra virtuella instanser.
3) Varför ska du bygga en server själv? Det låter som en rätt viktig maskin och att bygga den själv öppnar ju upp för rejält många problem.
4) Om du tänker köra Datacenter, varför tänker du då köra flera funktioner på samma virtuella maskin?
5) Har ni behov av 48 POE portar för telefoni och WLAN (AP antar jag) på ett företag som kräver 5 CAL?

Om man bortser från SSD går det defintivt lösa denna miljö billigare med prylar byggna av HP/Dell/Cisco eller vilket som nu är ditt favoritmärke.

1. Om jag förstår den här rätt kan en 600GB 15K 3,5" SAS dra 40W, en enda disk. Se sidan 21 i denna http://www.seagate.com/staticfiles/support/docs/manual/enterp...
2. För flexibiliteten att inte begränsas.
3. Har kört Dell, Compaq (HP) och IBM-servrar sedan mitten av 90-talet, då fanns inga alternativ, idag är exempelvis SuperMicro ett klart alternativ, standardkomponenter är i sig en driftsäkerhet (tillgänglighet/priskonkurrens). Skippar nog ASUS till förmån för SuperMicro dock.
4. Vet ej, vad är bäst?
5. 15 CAL skall det vara, 14 platser, dvs 28 portar + server (10Gb/s tänkte jag) + NAS (4 länkade 1Gb/s tänkte jag) + 4 skrivare + Router/FW
just nu inget WLAN bara 12st Polycomtelefoner.

bra input, tack!
Helst vill jag använda Xeon 1660 (i andra hand 2st 2650L), hittar inte den i någon server från HP/Dell/IBM/Cisco/Fujitsu.

Angåenda kyla så är utrymmet speciellt, stängt i mitten av fastigheten och innehåller operatörers utrustning, det finns ingenstans att skicka varmluften.

Av MartenKL
Skrivet av Dallebull:

Vilka funktioner?
En hel del av funktionerna kommer ju inte fungera i sverige.

Xbox Live. Testa att klicka på något som är online i PS3, jämför svarstiden med när du använder Xbox Live, eller testa att chatta med en kompis som spelar Zuma, eller varför inte i nästa generation, jämför Microsoft Azure hosted game servers med Client-hosting eller ea-hosted servers. Sony och EA online är ett skämt jämfört med Microsofts tjänster.

Med det sagt så tycker jag personligen mer om satsning på bättre grafik än videoövervakning av vardagsrummet. Jag tror Microsoft kommer förlora stort utanför USA i nästa generation om de inte har ett gäng IP-TV-leverantörer på väg in.

Av MartenKL
Skrivet av henkiii:

Cachar inte klienterna datan i ram när den väl är öppnad ?
Kanske beror på hur stora filerna är i och för sig, cadritningarna på jobbet är inte så omfattande, och jag har dålig koll på hur det fungerar under ytan.

Det finns lite olika saker, nu beskriver jag specifikt Autodesk Revit.
Filerna blir ofta över 200MB
Filerna är som sagt inte linjära och data skrivs direkt, läsning kan delvis anses cacheat. Så fort ändringar börjar göras sparas den lästa filen ner som en backup, rent seriellt skrivning. Användaren fortsätter att skriva ner i den öppna filen. Eftersom det finns delningsfuntioner försöker Revit committa omedelbart till disk, servern i sig har väl filen ram men vid skrivningar så måste allt commitas innan Revit uppfattar förändringen som utförd.

Ett lager ovanpå det är huruvida filen öppnas direkt på servern (med komplett klassiskt tillås) eller den satts i samarbetsläge varpå användaren kan välja lokal kopiering (optimistiska fils och mergeförsök) eller arbet direkt i filen.

Hursomhelst är exempelvis utskrift av 20 tunga pdf;er till servern ej ovanligt vilket kan låsa upp skrivningstiden till 30. Sekunder per dokument i nuläget, 5-10 MegaByte stora filer kostar oss 10 minuter per ca tre personer om dagen eller ca 20 000:-/år,
Vi byter normalt server var tredje år. Utöver det upplevs det som att ca en mandag i veckan går åt i prestandarelaterad frustration eller ca 60 000:-/år. Dvs jämfört med dagens server kan jag vara 240 000:- dyrare än den förra som gick på 110 000:- om alla väntetider etc försvann, så kommer ju inte bli fallet, men med standardkomponenter istället för "carepaq" tror jag att vi kan dra igen efter något skada minst lika snabbt som om vi väljer hp/dell etc.

Det är värt prestandan men om vi inte får ut prestandan för andra flaskhalser är det ju inte så meningsfullt...
Keep it caming

Jättetack för alla bra svar hittills

Ska kolla närmare på supermicro imorgon, förhoppningsvis hittar jag ett 4U rackchassi med 2x8 hotplugbays för 2.5" i fronten med redundanta psu storlek 500w.

Jag vill helst välja mobo/cpu/kylare själv

Av MartenKL
Skrivet av henkiii:

Cachar inte klienterna datan i ram när den väl är öppnad ?
Kanske beror på hur stora filerna är i och för sig, cadritningarna på jobbet är inte så omfattande, och jag har dålig koll på hur det fungerar under ytan.

Men 140-150lax är ju en del slantar, att inte ens få redundanta nätagg för den summan känns lite tråkigt.
Om du ändå har så pass mycket pengar att spendera borde det väl gå att ställa in en enklare AC i rummet?

SSD diskar har ju fortfarande ganska taskig livslängd om man konstant maler mycket data.
Jag skulle känna mig mer trygg med SAS på systempartitioner och allt sådant, de tuffar ju på hyfsat bra ändå i raid 10.

Dessvärre har varit med om fler scsi 10k och 15k diskkrasher än jag kan minnas. S3700 ligger väl högre på såväl mtbf om datamängshållbarhet jämfört med hp/10-15k 2.5" enheter.

Rent ologiskt att mekanik skulle ha högre hållbarhet men kan klart ha missuppfattat något.

http://download.intel.com/newsroom/kits/xeon/phi/pdfs/FactShe...

Jag är så jävla trött på fysiska diskar och dess värmetveckling, förändrade ljud/oväsen med så men tiden är på helspänn och säker pa armen när som helst kommer riva sönder hela ytan pga ett dammkorn som bildats inuti disken pga friktionen.

Spontant har du rätt med nätagg jag har dock inte haft ett som gått sönder efter 1997, men självklart har de alltid suttit bakom ups (nu talat tag även om dåligt kylda servering med variende temperaturer med hårda laster. Minnen, cuper moderkortet men framförallt hårddiskar fanerar ju titt som tätt i större miljöer, men nätagg som får ren spänning. Nja.

Finns det mindre AC lämpade för serverrum?

Ja det är inte lätt fylla alla checkboxar och behålla ett rimligt pris... Tack, fortsätt gärna ifrågasätta mina val, jag kan ha fel i det mest, därför jag ber om hjälp.