Inlägg

Inlägg som Mikaelb har skrivit i forumet
Av Mikaelb
Skrivet av Yoshman:

Testa att boota upp systemet via en USB-sticka med Linux och kolla prestanda med iperf, siffrorna du får nu verkar löjligt låga.

Även om jag klockar ner en i7-4670T till 800MHz (scaling governor "power-save" i Linux) så rapporterar iperf över 9GBit/s med den förvalda fönsterstorleken och en MTU på 1500.

Kör med "82599EB 10-Gigabit SFI/SFP+ Network Connection" (kodnamn "Niantic", ett 10Gbit/s Ethernet kort över fiberkablar) och Ubuntu 12.04LTS server. Med Infiniband har du lägre latens än vad jag får med 10Gbit/s Ethernet.

Edit: vad det gäller optimeringar har jag ganska precist lekt lite med olika angreppssätt för att skriva program som kan hantera så många transaktioner/s över nätverket som möjligt. En sak jag lärde mig då var att alla former av frekvensskalning på CPUn tenderar minska kapaciteten en hel del då det tar rätt mycket tid för CPUn (med tanke på att du kan ha upp till 14miljoner paket per sekund i båda riktningarna på ett 10Gbit/s NIC).

Du har en i7 3820 (Sandy Bridge), så den tar minst 10µs för att byta frekvens. Vet inte hur man läser ut exakt värde i Windows, men på Linux kan du göra detta

$ cat /sys/devices/system/cpu/cpu0/cpufreq/cpuinfo_transition_latency 10000

På min Haswell maskin ser man att det är 10000ns = 10µs.

Så steg ett är att alltid köra på max-frekvens (max s.k. P-state), den viktigsta strömsparfunktionen är ändå det man kallar C-states som CPUn hoppar mellan när den jobbar och inte har något att göra. Att hoppa mellan C0 (CPU jobbar) och C1 (CPU sover, men väldigt "lätt") tar runt 1µs, enda sättet att aldrig hoppa in i C1 är att aldrig anropa något som kan "blocka", finns sådana system men då åker strömförbrukningen upp rejält och det är definitivt overkill att undvika C1 i ditt fall.

Du bör också ha en fönsterstorlek på 20-100kB, exakt storlek beror lite på latens men den ska ju vara riktigt låg på Infiniband så du ska klara dig med rätt små fönster. Allt för stora fönster kommer leda till att du fyller CPU-cachen med så mycket data att risken är att saker skrivs över innan du ska till och använda det.

Trådskaparen har ju bra hastighet förutom efter en stund, känns inte som cpu prestanda påverkar nämnvärt utan snarare hastigheten att skriva till disk när det inte längre finns någon snabb cache att dumpa data till.

Av Mikaelb
Skrivet av Kr^PacMan:

Övervakning med det inbyggda verktyget i Windows eller något tredjeparts? Jag har möjlighet att uppgradera till 16 GB på mITX-kortet men då servern bara agerar webserver samt kontrollerar lampor och dylikt via TellStick känns det inte riktigt motiverat.

På maskinen du kör 2012 så duger inbyggda utmärkt, den visar tydligt hur minnet nyttjas. Med Windows 7 är det väl inte lika tydligt men då är Sysinternals vertyg helt underbara.

Av Mikaelb
Skrivet av Micke O:

Vad är det för OS på burkarna? Den ena ser det ju ut att vara Windows på iaf

Det är inte så enkelt att lagringen inte hinner med så när minnesbufferten är full så går det "lite" långsammare?

Edit: såg att "hasenfrasen" skrev ungefär samma sak i den andra tråden.

Låter helt klart som det är minnesbuffert som tar slut, övervaka minnesnyttjande vid kopiering och se vad minnet används till.
Har upplevt exakt samma sak i tester med 10Gbit.

Men 128GB ram eller så råder bot på det problemet Annars är det nog bara att leva med det och inse att ditt nätverk inte längre är begränsningen när du flyttar stora mängder data. Coolt med 10Gbit hemma hur som.

Av Mikaelb
Skrivet av siggen:

Prova att stoppa in damsugaren eller hårtorken (ta den som låter mest, de moderna dammsugarna låter ju inget ) i en garderob, och prova om det går.
Alltså jag har tre olika servrar hemma, en 5U, en 2U och en 1U, och allihopa låter OFATTBART mycket. Ett R9 290x låter som en viskning i jämförelse.
Och dessa servrar är gamla nu, så hårdvaran är inte mycket att ha heller. Ineffektiv och det kommer defenitivt att synas på elräkningen!

Dock så kan det ju alltid vara kul att ha att experimentera med, och då har jag valt den med snabbare processor och köpt en billig sata disk till. Det andra som behövs är mus och tagnentbord, dock med PS/2 anslutning. USB brukar inte fungera i BIOS för äldre servrar.

Jag skulle rekommendera att köpa en gammal laptop för ca 1700kr istället. Då slipper du hålla på med mus, tagnentbord och skärm i garderoben, och den kommer att fungera utmärkt som server!

Instämmer med ovan, så gott som alla servrar låter mycket och gamla servrar är definitivt ineffektiva.
Om du slår ut den ökade elkostnaden med en sådan dinosaurie på ett par år och lägger på inköpskostnaden av en modern maskin går du nog plus på att köpa en modern server.

Om 3-4 år gamla generationer fortfarande var användbara skulle man inte kasta ut dom ur datacenters. Knappt så 2 generationer tillbaks är användbara eller försvarbart att ha i drift med tanke på driftskostnad i förhållande till prestanda.

Som någon skrev ovan, roliga prylar att ha för att lära sig labba på men att användas till något vettigt? Nä... Knappt ens om man får dom gratis.

Av Mikaelb
Skrivet av Pappy:

Jag tycker frågan inte handlar om säkerhet alls. Oberoende om du har mjukvaruraid (alt fakeraid) eller riktig hårdvaruraid MÅSTE du ha backup (alt snapshots). Det har ingen betydelse om du har 0, 5 eller 6 (eller 50/60). Frågan är: Måste du ha hög uptime på din server eller måste du ha väldigt hög sekvensiell överföring av stora filer?
På en hemmaserver ser jag knappast behovet av något. Man kan lika gärna dra från backup om disk lägger av. Att sitta och vänta på rebuild (med stora diskar kan det ta evigheter) bara för att servern MÅSTE vara uppe är oftast ointressant hemma.
Hur ofta måste man kopiera jättestora filer väldigt snabbt mellan diskarna? Inte särskilt ofta så vida du inte agerar backup på Youtube typ... Det kan ju ge viss epeen att se stora sekventiella siffror men hur stor nytta har man av det i dagligt jobb? Kopiera senaste Game of Thrones hela tiden mellan diskarna bara för att man kan?

Fortsätt fundera på fler anledningar till att man vill köra RAID.
Trådskaparen har inte ens nämnt backup, så jag förstår inte varför alla tjatar om det.

Du kan ju försöka sätta upp en mer effektiv backuplagring där man kan återskapa en os disk ifrån jämfört med att ex. spegla två diskar.

Av Mikaelb
Skrivet av steele:

Budgeten är väldigt begränsad.
24/7-drift skulle vara nice ja
Har en hel del gamla prylar så fokus nu i början ligger primärt på backuplösningen.
Kan tänka mig att köpa ny hårdvara för den och nya diskar, men helst inte mer än 10 000 kr.
Med ny hårdvara menar jag då kanske lämpligt SuperMicro MB, nyare Xeon-propp, ECC-ram och disk, resten har jag.

Jag överväger att inte köpa begagnad hårdvara för detta projekt. HP Gen5-servrar tror jag drar en hel del ström...

Ja det är dit jag vill komma, om du tänker köra dina servrar 24/7 så bör du räkna på strömförbrukning och hur lång återbetalningstid du får på en modern maskin jämfört med en begagnad G5a. 300 eller 100w gör rätt stor skillnad på ett år

Av Mikaelb
Skrivet av aluser:

Min uppfattning är att dataskyddet som raid ger är klart bättre att uppnå med mjukvaruraid i valfritt operativsystem än i en moderkortsraid av enklare typ (fakeraid) då detta ger ett operativssystemsberoende inte drivrutinsberoende + hårdvaruberoende. Även om nyare versioner har mer offload på chipet nu så handlar det troligen fortfarande mycket om att göra beräkningarna i cpu och belägga diskarna med ett specialformat som kan hanteras av ett visst chipset.

Men jag medger att det var länge sen jag använde fakeraid utan jag kör uteslutande mjukvaru eller full hårdvaruraid så jag kan ha missat att fakeraid chipen kan ha blivit såpass mycket bättre att dom är värda att använda. Enda tillfället jag hade använt dom hade varit om jag behövt dela raiden mellan os och inte hade plats för ett riktigt kort.

Läsvärt om dom 3 raidkontrollertyperna jag nämner

Ja det är ju en helt annan diskussion som säkert stämmer i många fall, som ditt tidigare inlägg var författat tolkade jag det som att du ansåg att raid överhuvudtaget gav sämre skydd än att lagra data utan någon form av raid.

Av Mikaelb
Skrivet av steele:

Det är primärt för labb. Två fysiska hostar som ska klara endel last samt en backupserver.
Backupservern skulle jag vilja bygga så bra som möjligt från början eftersom jag har tankar på att hosta backuptjänst till släkt och vänner.

Vad har du för budget? Är det tänkt 24/7 drift?

Av Mikaelb

Vad ska du maskinerna till? Hur många?
Om det är till annat än labb eller för att lära sig så tycker jag du ska skrota tanken på begagnat helt. Såvida inte begagnat innebär att köpa senaste generationens servrar. Allt annat är nästan alltid slöseri med resurser i alla former.

Av Mikaelb
Skrivet av aluser:

Varför inte slänga datan i sjön redan från början. Moderkortsraid på icke serverkort är slöseri med resurser och låser in dig i onödan och ger väldigt lite extra förutom ökad risk att förlora datan om moderkortet går sönder.

Nu vet jag inte om jag håller med riktigt, jag förstår din poäng delvis men vi kan väl enas om att hårddiskar går sönder oftare än moderkort?

Därför ger även detta en form av dataskydd, att det medför risker? Jo absolut om din raid pajar och inte dina hårddiskar kommer du få problem som du inte skulle fått annars men det överväger knappast fördelarna. Tråden handlar ju inte heller om backup, utan om just raid...

För att ge trådskaparen ett vettigt svar:
Du konfigurerar din raid före du installeras OS. Vitsen med att köra en "hårdvaruraid" är att ditt OS inte ser dina diskar utan ser en array, dvs din raid och uppfattar detta som en enda hårddisk som fungerar precis som vanligt ur OS synvinkel.

Av Mikaelb
Skrivet av Dunde:

Hårddiskar mår inte bra av för kall miljö. Men den servern går ju iofs inte direkt kall...

Hårddiskarna påverkas inte av temperatur på övrig hårdvara nämnvärt. Sitter placerade längst fram och kyls med yttertemperaturen.

Om en sådan överlever ett kallgarage? Förmodligen utan problem i flera år... Om det är rekommenderat, nä.
http://h18004.www1.hp.com/products/quickspecs/12901_div/12901... (Sidan 27 beskriver driftsmiljö)

Jag tycker dock fortfarande att du ska överväga något modernare alternativ, alternativt en vanlig PC. Din dinosaurie var tyvärr inte ens häftig när den kom, den har inte speciellt många fördelar mot en vanlig PC som server just för att den nästan var en vanlig PC.

Om du vill ha en servermodell för att lära dig om mer om servern rekommenderar jag dig att även om den är gammal leta upp med ML350 åtminstone som är en riktig server. Din server du har nu kommer bara elda för kråkorna.

Av Mikaelb
Skrivet av sweanders:

JHar gjort liknande tidigare men stötte då på patrull med inkompatibilitet med bl.a. nätaggregat och minne.

Detta är en av anledningen till att man inte gör dom du tänker göra... Din server verkar dessutom ha halvdan prestanda med tanke på val av exempelvis diskar så varför inte köra 2st färdiga servrar från en leverantör som har erfarenhet av att bygga servrar?

Prislappen är inte så mycket högre än det du räknat ut och kunden får en lösning som är dokumenterad och mycket mer säker. Självklart kan vem som helst bygga en server men det är inte enklare för dig än för HP/Dell eller vem som helst... (...och därför inte billigare) Dessutom jobbar inte du gratis för din kund heller, du tar istället betalt för tiden du monterar maskinen och förmodligen har du bara lurat honom i slutändan att betala mer för sämre saker.

Din kundkorg innehåller en uppsättning maskiner för att använda i en labbmiljö, inget annat.

Av Mikaelb
Skrivet av palman:

Undrar vad serven kan dra idel då den bara kommer att användas i labbmiljö. kanske ska jag stänga av den när den inte används.

Det är just det som är problemet med äldre prylar, vid hög belastning behöver det inte skilja så mycket mot en modern dator. Men vid just idle saknar äldre prylar funktioner för strömbesparning.

Av Mikaelb

Vad kör du för program på din diskmaskin? Temperatur?

Om man har normal disk med tallrikar och bestick med lite matrester som inte är helt färska (kanske från igår) så tycker jag alltid det krävs att man kör rätt hög temperatur. Ekonomiska sparlägen fungerar nästan inte på någon disk oavsett diskmedel imo.

Av Mikaelb

Spontant svar, ja den drar mycket ström. Säkert 200-250W, har aldrig varit med om någon så gammal server som dragit mindre. Dock dålig erfarenhet av ML maskiner under 3xx.

Nyare maskiner är otroligt strömsnåla och du tjänar förmodligen på att slänga den du har och köpa en ny
Senaste ML maskiner jag pillade med var en E modell med en E5-2609, drog enligt UPS strax under 50W vid låg belastning.

Av Mikaelb
Skrivet av krilleoh:

Om man ska ha en domän med åäö, rekommenderar jag att även köpa den utan åäö, och peka båda mot samma webbplats.
Du kan köpa domän och webbhotell separat, men om du nu ska betala för det kan du lika gärna köpa allt på samma ställe om du hittar något som verkar bra.

Håller med om att man bör köpa båda två, fast jag anser att man bara ska använda den utan prickar. Sedan pekar man åäö-domänen mot den "riktiga".
Om du har en IDN domän som heter domän.se är egentligen domännamnet xn--domn-noa.se.

Av Mikaelb

Ta reda på vad det är som laddar trögt, med den felbeskrivning du delger här är nog allt du skriver bortkastat att börja med
Chrome developer tools eller liknande har bra verktyg för att mäta laddningstider på sidan och vad som egentligen tar tid.

Av Mikaelb
Skrivet av Fenix:

Du kanske inte hört talas om buntband? Det är en fantastisk uppfinning

Död åt buntband Länge leve kardborrband.
http://www.dustin.se/product/5010167904/kardborrband-5-0-m-9m...

Av Mikaelb
Skrivet av ^bC^:

Om inte arbetstiden/arbetskostnaden sätts till noll i kalkylen så kostar fler servrar mer pengar oavsett fysiska eller virtuella,
tänker man inte efter före så riskerar man att bara lägga till ett lager av komplexitet som inte tillför något mer än arbetstid.
Ett mindre företag har inte samma skalfördelar som ett större företag,
att ha en dedikerad IIS för ett intranät på fåmansföretag är oftast bara lyx,
är det den publika siten så kan jag gå med på det utan problem, men inte annars utan bra skäl...

På ett större företag separerar man tjänsterna för där prioriteras upptid mer,
att ta ner hela miljön (om det ligger på en server) för att installera en patch för "whatever" är inte acceptabelt.
ekonomiavdelningen har ingen förståelse för att HRavdelningen behöver patcha sitt system, där av separerar man, gemensamma system klustrar man, en SQL-server med always-on exempelvis så den behöver aldrig tas ner.
Har du ett fåmansföretag kostar det mer i underhåll och drift än att låta 1-10 stackare sitta och vänta, om du behöver göra en akut omstart.
Jobbar man så reaktivt att man behöver göra akut omstarter så ofta är man kanske inte rätt man på rätt tjänst...
Och är det exempelvis ADt som har pajjat spelar det ju ingen roll om du har din IIS uppe för den är ändå med stor sannolikhet AD integrerad och viceversa...
(detsamma gäller IIS<>SQL | SQL<>HR-system, har en del gått ner spelar det ingen roll så man kan lika gäran starta om allt ändå, lite raljerande men du fattar)
Gör du det för upptid så behöver du minst två fysiska servrar och minst två "storage", då både SAN och hypervisors behöver patchas...
Vill du inte sitta med Storage vMotion dagarna i ända är det enda sättet om du inte skall ta ner hela miljön.
blandar du in SAN kräver dom mer och bättre bandbredd då det även är replikerin SAN<>SAN och inte bara trafik mellan host<>SAN vilket ger dyrare switchar.
och hela cirkusen är igång, så min erfarenhet är att hålla allt så kompakt och enkelt som möjligt och sen när det inte är hållbart längre bryta loss tjänsterna en efter en, har man planerat allt rätt, innan, är det inga problem.
Har man allt pekandes till samma server, gärna med ip-nummer, sitter man i skiten, så så länge du vet vad du gör är det enklare med en server.

När jag jobbade som konsult var det alltid mycket enklare när "bosses svets och chark" ringde om problem,
att säga "starta om servern", om den inte svarade alls, än att säga "logga in på vCenter, klicka dig fram till "host and clusters", gå till STHLM-SQL023-1, kör restart, fungerar inte det så är det i IISen problemet ligger öppna då STHLM-WEB-011-1 och..."

Så jag är inte rabiat och tycker att allt skall vara samlat hela tiden men det finns gränser för varje företag hur mycket man kan och bör virtualiesra och hur mycket man skall sprida tjänster. har man dedikerad personal som vet vad dom håller på med så skala ut, ju mer ju bättre, innan dess håll ihop det kommer bara kosta mer i hårdvara och drift.

Jag tycker att du ser på frågan från helt fel håll och gör det misstag jag har sett hos många mindre kunder.

Vilket är naturligt eftersom konsultbolag som erbjuder på platsen installationer/felsökning/support/försäljning vill att kunden själv ska drifta sina system såvida dom själva inte tillhandahåller en on-demand lösning. Samtidigt som man är rädd för att ge kunden kostnaden det kostar att sätta upp en vettig miljö och inser att om man gör det väljer dom en on-demand lösning istället... Så då kompromissar man...

Du tar själv ett intranät på ett fåmansbolag som exempel, att där kan man inte sätta upp en dedikerad maskin för detta? Varför i hela friden skulle detta fåmansbolag från börjar drifta sin IIS själva? Köp ett 9kr webbhotellspaket om inte tjänsten är så viktig så har du sparat kunden en massa pengar i drift/inköp och underhåll.

Bara för att vi talar om att virtualisera behöver inte det innebära att man ska köpa in redundanta lösningar för lagring och ett cluster med massor noder. En hypervisor som kör en näve virtuella maskiner utan extern storage ger fördelarna att du KAN skala ditt system. Inte att du nödvändigt måste göra det.
Sedan att man får klicka på "Installera uppdatering" på 5 maskiner istället för en ger ju ett visst merarbete, det kan jag gå med på.

Sedan kan man inte fakturera xxxxx kr för att migrera ut kundens växande HR system den dagen det behövs, men det är ju snarare er förlust och inte kundens.

OBS: Läs mina syrliga kommentarer som exempel och inte ett anklagande mot ert/ditt agerande mot kunder

Av Mikaelb
Skrivet av ^bC^:

Jag som trodde det, allt som oftast, var i CAL-licenserna som kostnaden låg i...
Men börjar du sprida ut tjänster på fler servrar, så kommer du fortare fram till punkten då kostnaden för SAN/Nätverk och servrar springer iväg i kostnad.
Samt då även kostnaden för admin verktygen (oavsett ESX eller Hyper-V). Så till en viss gräns på företag är det vettigare att hålla ihop tjänsterna på så få servrar som möjligt. Att köpa in en liten miljö på azure kan ju verka billigt och enkelt, men räkna ihop en ny A1 server för varje tjänst och sen koppla ihop det med en SQL, en webplats och det är ganska dyrt...
Då är inga kostander för backup/överföring/bearbetning etc tagen.

Så jo storlek på företag (och typ av företag) är intressant skulle jag vilja säga, innan jag tvärsäkert säger sprid ut alla tjänster.

// bC

Det är oftast i åtkomstlicenser som kostnaden ligger, vet inte hur du tolkade mitt inlägg som att det inte var det? Har inte ens diskuterat åtkomstlicenser då det är helt irrelevant för virtuellt eller ej.

Utveckla gärna din punkt med kostnad ifall man väljer att sprida fem tjänster på fem virtuella maskiner vs att köra dom på en och samma fysisk och varför ett litet företag ska köra allt på samma maskin medans ett stort inte ska det. Kostnad för hårdvara menar jag då, att licenskostnaden för operativsystem ökar något vet vi.