AMD gör monsterprocessor med 16 kärnor, inbyggd grafikdel och HBM-minne

Permalänk
Skrivet av Yoshman:

Om du har något hum om design av multicore-system så skulle du veta att ett kluster med 32 CPUer är snabbare än en cache-koherent maskin med 32 CPUer där varje enskild CPU har samma kapacitet om programmet man kör på systemet lämpar sig för kluster.

Om du skulle bencha ett SAP Hana kluster med 64TB RAM mot en Oracle M7 scale-up server med 64 TB RAM, så är det givet att scale-up servern vinner i Enterprise workloads där det kommuniceras mycket mellan cpuerna. Dessutom kan varje Oracle M7 cpu, göra SQL queries i en hastighet utav 120GB/sec, så det är ytterligare ett skäl till varför Oracle M7 servern skulle vinna SAP Hana. Jag undrar vad en x86 cpu klarar av? Är det 5GB/sec SQL queries? Visst skulle Hana klustret ha mer cpuer, men det är inte det viktigaste när det gäller affärssystem, annars skulle en UV2000 vinna alla Enterprise benchmarks. Dessutom har en M7 server 32 cpuer, 1024 cores och 8192 trådar så den har gott om cpu kraft (och den är immun mot heartbleed och bl.a. buggar när pekare går utanför sitt reserverade minne - varje process har en unik nyckel till sitt reserverade RAM område, och för varje operation så krävs att nyckeln överensstämmer, annars larmar och avbryter M7 cpun). Men det vore konstigt om Oracle inte vann såna här benchmarks, eftersom de servrarna är skapta för just affärssystem. På samma sätt vore det konstigt om inte UV2000 vann beräkningsbenchmarks, eftersom de är skapta för sånt (bl.a har de MPI rätt i hårdvaran).

Citat:

SPARC M6/M7 verkar ju ska skala till 32-sockets, är kanske där fysiken sätter en gräns för vad som är vettigt om man ska köra laster som behöver relativt mycket kors-sockel trafik. Och det är då även förklaringen till varför SGI begränsar sina UV-system till 32-sockets för denna typ av applikationer.

Fujitsu SPARC M10-4S server skalar till 64 cpuer, men de är inte av typen Niagara, utan av typen SPARC64 cpuer. De påminner om POWER/x86 till uppbyggnaden, men få starka trådar, och Fujitu cpu sitter bl.a i Superdatorer såsom "K". Oracle Niagara SPARC har tidigare fokuserat på through-put, på att få så mycket arbete gjort som möjligt på kortast tid, men med core S4 kommer den också ha starka trådar (den kan växla mellan through-put eller starka trådar, on the fly). SPARC64 är en mer traditionell cpu. Sun hade en server med 144 cpuer för decennier sedan.

Oracle har en interconnect som heter Bixby som skalar upp till 96 cpuer (dvs man slår ihop tre st M6/M7 servrar), men jag tror prestandan blir lidande då, eftersom det kommer bli flera hopp att nå cpuer långt bort. Sen kanske det inte heller är så stor marknad för 96 scale-up servrar, kanske därför Oracle inte börjat sälja en sån server. SPARC M6/M7 har kopplat ihop alla 32 cpuer med varandra på detta sätt:
http://regmedia.co.uk/2013/08/28/oracle_sparc_m6_bixby_interc...
man ser vilket ormbo det blir när cpuer ska kommunicera, tänk då 64 cpuer eller 96 cpuer! Man ser att i värsta fall, så måste man mellanlanda en gång, det blir alltså max ett extra hopp för att nå till en cpu maximalt långt bort, tex att cpu 0 ska nå cpu 31. Att det bara är ett hopp i värsta fall, är extremt bra. Detta leder till att hela M6/M7 servern har låg värsta latens och lämpar sig för t.ex. SAP eller databaser - vilket är naturligt eftersom affärssystem är Oracles levebröd. Om man har 96 cpuer så blir det fler hopp, och då ger det inte längre bra Enterprise prestanda där kod branchar vilt, och kommunicerar hela tiden mellan cpuerna.

Om vi tittar på Bull Bullion, den första 16-cpu x86 Enterprise servern, så ser den ut så här:
https://deinoscloud.files.wordpress.com/2012/10/bullions-bcs....
Man ser att det är inte så bra, det blir flera hopp för att nå cpuer långt bort redan vid lite som 16 cpuer. Prestandan måste bli lidande. För övrigt påstår Bullion att de har
https://deinoscloud.wordpress.com/2012/10/26/bulls-implementa...
In July 2012, the bullion server has been ranked as the world’s fastest x86 enterprise-class server, according to the international SPECint®_rate2006 benchmark.
Jag tror inga stora affärsföretag bryr sig om parallella beräkningsbenchmarks som SPECint. Istället är affärsföretagen mer intresserade utav Enterprise workloads, SAP benchmarks etc. Affärsservrarna är ju där de stora pengarna finns med skyhöga marginaler.

Citat:

Man ska också påpeka att systemen vi nu diskuterar står för långt mindre än 1% av alla servers som används, kul att diskutera rent tekniskt men i det stora hela är detta ungefär lika relevant som Bugatti Veyron är för bilindustrin. Kul att se på TV, men de flesta kommer aldrig komma nära en sådan i verkligheten.

Precis. Om du har en 4 cpu eller 8 cpu x86 server, så får du otroligt mycket kraft idag. Det räcker för de flesta. Dessutom går de upp till 12TB RAM idag. Vilket är helt otroligt bra. IBMs största Mainframes har ju länge gått upp endast till 4TB. Och IBMs största Unix server POWER8 E880 går upp till 16TB, precis som deras största POWER7 server. En 8 cpu x86 server kan lätt ersätta mindre Unix servrar och mindre Mainframes.

Men är vi överens om att det är skillnad på scale out servrar, och scale up servrar? Ingen kan ersätta den andre. Scale-up kan inte ersätta Scale-out på beräkningar. Och på samma sätt kan inte en Scale-out server ersätta en Scale-up server på monolitisk kod som branchar mycket, typfall är affärssystem. Överens?
http://www.realworldtech.com/sgi-interview/6/
Typically, much of the work in HPC scientific code is done inside loops, whereas commercial applications, such as database or ERP software are far more branch intensive. This makes the memory hierarchy more important, particularly the latency to main memory. Whether Linux can scale well with a ERP workload is an open question. However, there is no doubt that with each passing month, the scalability in such environments will improve. Unfortunately, SGI has no plans to move into this SMP market, at this point in time.
http://www.theregister.co.uk/2011/09/20/scalemp_supports_amd_...
The vSMP hypervisor that glues systems together is not for every workload, but on workloads where there is a lot of message passing between server nodes – financial modeling, supercomputing, data analytics, and similar parallel workloads. Shai Fultheim, the company's founder and chief executive officer, says ScaleMP has over 300 customers now. "We focused on HPC as the low-hanging fruit.

Skrivet av Petterk:

Din egen definition gör en enskild CPU till beräkningskluster.

Det spelar väl ingen roll hur man definierar det, marknadsförarna är inte tekniskt kunniga och gör ofta fel. Om de säger SMP, Numa, kluster, whatever - spelar det roll? Det viktiga är användningsområdena. Microsoft säger ju att Windows är perfekt för den ena krävande miljön efter den andra - men faktum är att ingen kör stora seriösa system på Windows. Marknadsförarna får säga vad de vill om Windows, men vad används den till? Och vad används SGIs servrar till? Jo, HPC beräkningar, enligt de själva. De är alltså hårt nischade, och inga general purpose servrar. Man kan köra vad som helst på en Oracle eller IBM Unix server - både scale-up affärsystem och scale-out beräkningar. Men eftersom de bara skalar till 16 eller 32 cpuer, så är det bättre att välja en riktig scale-out server, som SGI med 256 cpuer. När det gällde kappsegling, som Larry Ellison är en fantast utav, så designades Oracles kappseglingbåt och kördes alla tunga beräkningar på en Oracle SPARC M6 server, så det går att köra beräkningar på scale-up servrar. Men det hade gått mycket snabbare med en SGI klustermed 256 cpuer förstås. Men SGI är inte lämpligt att köra scale-up saker, typ, ERP affärssystem (enligt information från SGI själva).

Citat:

De stödjer MPI/OpenMP också även om de inte har någon MPI-hårdvara – vilket inte heller de flesta scale-outsystem har.

Det är bara beräkningsservrar som använder MPI, och om man har det i hårdvara som SGI, så är man hårt nischad. Ingen IBM eller Oracle server har sån hårdvara.

Citat:

Sen tror jag inte det är många särskilt stora SAP-installationer (icke-Hana eftersom där föredras det) som kör Suse överhuvudtaget. Däremot finns det inget hinder för det, men andra lösningar skulle vara mer ekonomiska än en scale-upmaskin. De kör inte Linux på Power 795 i SAP-benchmarks t.ex. Snabbaste Linuxlösningen är en 4P Dell. SGI skulle kanske kunna spöa den, men de gör inte SAP-benchmarks. Men vem bryr sig. SGI kallar sina beräkningskluster distributed memory supercomputers eller kluster och SGI ICE eller InfiniteData och Rackable. Som inte är massiva SMP-system.

SGI gör inte såna ERP benchmarks, därför att deras MPI bestyckade 256 cpu kluster inte är lämpade för sånt:
http://www.realworldtech.com/sgi-interview/6/
Typically, much of the work in HPC scientific code is done inside loops, whereas commercial applications, such as database or ERP software are far more branch intensive. This makes the memory hierarchy more important, particularly the latency to main memory. Whether Linux can scale well with a ERP workload is an open question. However, there is no doubt that with each passing month, the scalability in such environments will improve. Unfortunately, SGI has no plans to move into this SMP market, at this point in time.

Min poäng är att det skillnad på scale-up och scale-out servrar (kalla dem vad du vill). Båda är designade att lösa ett specifikt problem, och ingen kan ersätta den andre. Det är min poäng. När det gäller beräkningar, så är det SGI UV2000 servrar man ska köpa. Eller, ScaleMP. Men jag tror SGI är snabbare, därför att ScaleMP gör det i mjukvara (använder en mjukvaru hypervisor för att slå samman många noder i ett kluster, se länk ovan), som SGI gör i hårdvara. När det gäller ERP affärssystem så är det IBM eller Oracle man ska köpa för bästa prestanda. En SGI UV2000 kan inte ERP affärssystem, enligt information från SGI, och frånvaron av SAP eller TPC benchmarks.

Permalänk
Datavetare
Skrivet av MichaelJackson:

Precis. Om du har en 4 cpu eller 8 cpu x86 server, så får du otroligt mycket kraft idag. Det räcker för de flesta.

Även 4/8-socket maskiner är nischprodukter, den stora bulken av servers kör Xeon E3. Inkluderar du upp till 2-socket Xeon E5 och motsvarande från AMD är jag rätt säker att man redan där har, till antal system, med god marginal täckt in >99% av alla servers som såldes 2014.

8-sockets över QPI kräver Xeon E7 och då hamnar man på prislappar ytterst få är beredd att betala, dessa maskiner hittar man i stort sätt uteslutande i stora datacenter (ett område Intel totalt dominerar, se t.ex. deras rapport som presenterades igår). Det ger en viss indikation på vilka extrema nischer större system är.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Hopplöst att diskutera om ena sidan inte läser vad det handlar om och hittar på argument. Skillnaden mellan UV-300 och UV-2000 är bara att UV-300 har dubbelt så många processorer per chassi annars är det samma teknik. Det säger sig självt att det är problem att skala till 256 processorer och att olika storlekar lämpar sig för olika uppgifter. Båda kör Numalink med MPI-motor, men det verkar du inte vilja kännas vid. SGI benchar inte deras vanliga rack-servrar i SAP. UV-serien konkurrerar inte på scale-outsidan ingen bygger kluster med ett gäng 256-processorer system när de kan köra några hundra servrar med infiniband istället, deras ICE-serie gör och tävlar mot Fujitsus och IBMs scale-outlösningar. SGI har kluster med tusentals processorer där du inte har någon MPI-motor eller någon buss mellan chassi/processorerna. Mid-rangeservrar är extremt nischade grejer överhuvudtaget, du kör banker och centralbanker på COTS x86 och Windows Server, på .NET och SQL Server t.o.m. Linux har problem att skala (över ~32 sockets) och det var detta jag var inne på. Snabbaste linuxlösningen (som är benchad) är ju en 4P-maskin.

Massiva SMP-system är inte det du köper om du behöver ett kluster, det finns många problem där SGI ICE är snabbare än UV som distribuerade program som inte behöver TB unifierat/delat minne, och du hittar inte ScaleMP i stora scale-outsystem för HPC-beräkningar heller. I det här fallet används en Numalinkserver till databas.

@Yoshman, SGI UV 300H använder Xeon E7 men det handlar om två 4P servrar med NUMAlink (7). I det här fallet med SAP HANA så säljs allt som en appliance med SLES och SAP HANA förkonfigurerat. Med Hana som alltså har tillgång till upp till 6TB minne med 32GB DIMMs. För att få lika mycket minne med UV-2000 så hade du behövt tolv blad och tre bladchassin. 24-waysystem kanske hade gått hyfsat i Linux, men ingen skulle betala prislappen.

Många stora system är dessutom partitionerade, alltså kör virtualiserade system. Sen är det ju inte som att databas och affärssystem körs på samma maskiner ute i verkligheten.

Permalänk
Medlem
Skrivet av MichaelJackson:

För övrigt riktigt fult att lägga in ord i det du citerade.

Permalänk

är det tävling i skriva en bok på kortast tid ?

Visa signatur

hej Achmed Länken till bästa tråden #15549644

Permalänk
Hjälpsam

Tycker att diskussionen är intressant, är man inte intresserad är det väl bara att hoppa över den.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Skrivet av Petterk:

Hopplöst att diskutera om ena sidan inte läser vad det handlar om och hittar på argument.

Men vad är det som vi inte är överens om egentligen? Vad är problemet? Jag påstår att Scale-up servrar som IBM och Oracle stora Unixservrar är specialiserade mot affärssystem, medan Scale-out servrar som SGI och ScaleMP är specialiserade mot beräkningar. Och jag påstår även att scale-out servrar (som närmast kan jämföras med kluster) inte kan effektivt köra affärssystem, och jag påstår att Scale-up servrar inte är vidare bra på att köra tunga beräkningar, då är SGIs scale-out servrar bättre. Jag påstår även att de största scale-up servrarna stannar vid, typ 32 cpuer, pga affärskod branchar för mycket och det blir för mycket kommunikation mellan cpuerna. Jag påstår även att de största scale-out servrarna stannar vid 256 eller 512 cpuer eller däromkring, därför att beräkningskod branchar inte alls, och kan köra sin lilla beräkningsloop i cachen, utan att kommunicera mycket med noder långt bort.

Så vad är det för något du inte håller med mig om? Vad är problemet? Helt uppenbart är du väldigt påläst inom detta område med tunga servrar, och besitter kunskaper som inte vanliga lekmän har. Skulle inte förvåna mig om du jobbar/har jobbat med sånt här. Men, vad är det vi är oense om? Vad reagerar du på, vad tycker du är så provocerande? Att Scale-out servrar inte kan ersätta scale-up servrar? Eller vad?

Citat:

Det säger sig självt att det är problem att skala till 256 processorer och att olika storlekar lämpar sig för olika uppgifter.

Problemet är att det finns folk som inte förstår att det är skillnad på olika uppgifter, och det finns folk som tror att en 256 scale-out server kan ersätta en scale up server. De tror alltså, på fullaste allvar att en Scale-out server har 35.000 datakanaler så att varje cpu är kopplad till varje annan cpu, så scale-out servrar klarar av affärskod.

Citat:

t.o.m. Linux har problem att skala (över ~32 sockets) och det var detta jag var inne på.

Det finns folk som inte tror på detta. Det spelar ingen roll hur mycket du förklarar och postar länkar, de förstår inte detta, eftersom de inte jobbar med sånt här så biter inga förklaringar. Det går inte in, du kan debattera med dem under flera års tid och posta hur mycket länkar som helst - förgäves. Det. Går. Inte. In. No. Matter. What.

Citat:

Båda kör Numalink med MPI-motor, men det verkar du inte vilja kännas vid.

Det är mycket möjligt, jag har inte kategoriskt förnekat detta. Min poäng är att en scale-up server inte använder MPI för att köra affärskod. Det används bara i kluster för beräkningar.

Citat:

SGI benchar inte deras vanliga rack-servrar i SAP.

Precis. Skälet är att de inte klarar av att köra affärskod. Här är en lista på alla SAP benchmarks, och i topp är det bara scale-out servrar, dvs IBM och Oracle Unixservrar. Det finns inte en enda scale-out server med på listan.
http://global.sap.com/solutions/benchmark/sd2tier.epx?num=100

Skrivet av Petterk:

För övrigt riktigt fult att lägga in ord i det du citerade.

Jag har citerat vissa länkar, och klippt ut lite text. Då förstår man inte sammanhanget om jag inte lade in ord som förklarar sammanhanget. Poängen med att jag även lade in länken, är för att man ska kunna gå tillbaka till originalet och se vad som egentligen stod där. Om jag ville luras så skulle jag aldrig postat med länken. Jag tycker inte alls det är fult att komma med förklarande ord. Möjligen borde jag lagt till orden inom [] klamrar.

Exempel, om det står så här:
"SGI will not go into this market" och jag ändrar till "SGI will not go into this ERP Business system market" så är det inte för att luras, utan för att klargöra. Jag borde dock gjort så här istället: "SGI will not go into this [ERP Business system] market", men jag trodde ingen skulle bry sig. De flesta orkar inte läsa länkarna, så då är det bättre att jag klargör med extra information vad det handlar om.

Skrivet av Yoshman:

Även 4/8-socket maskiner är nischprodukter, den stora bulken av servers kör Xeon E3. Inkluderar du upp till 2-socket Xeon E5 och motsvarande från AMD är jag rätt säker att man redan där har, till antal system, med god marginal täckt in >99% av alla servers som såldes 2014.

Det tror jag kan vara rimligt.

Men nu pratar vi om high-end servrar med ordentlig prislapp. Oracle har börjat gå ifrån den traditionella Unix marknaden, som är vikande, där istället Windows och Linux tar över på småservrar med 1-8 cpuer. Istället satsar Oracle på "Engineered systems" eller vad de nu kallar det - dvs en black box som består av en stor scale-up Unix server på 1500kg, och 32 cpuer och 32TB/64TB RAM, och som bara kör förinstallerade affärssystem, och den marknaden växer mycket kraftigt. Oracle satsar alltså på stora allt-i-ett-system som är specialiserade att köra t.ex. Oracles stora databas. Larry Ellison säger att han inspirerats av Apple, där de kontrollerar allting: hårdvara, OS, mjukvara, etc - dvs rubbet. Och såna homogena enhetliga produkter slår produkter där man själv plockat ihop olika delar. Oracle kontrollerar ju all hårdvara: cpu, moderkort, etc - och kontrollerar även operativssystemet Solaris, och även middleware Java och även affärssystemen/databasen, etc - så allt är mycket trimmat och finstämt. Om databaskillarna vill snabba upp en speciell funktion så kan cpu killarna bygga in den, och operativsystemet kan exponera den. Allt är råtrimmat och därför får Oracle ut grymt mycket mer prestanda än t.ex. IBM eller Hana. Kom igen, en enda cpu gör 120GB SQL queries/sekund? Det är ju sjukt snabbt, många ggr snabbare än alla andra.

En 64TB Oracle databasserver kommer köra över ett 64TB Hana databaskluster - alla dagar i veckan. Hana har inga hårdvaruacceleratorer att utnyttja, de kör klustrad RAM som är ineffektivt jämfört med en enda stor scaleup server på 64TB RAM, etc etc. Kort sagt, Unix marknaden är vikande, men "engineered systems" är kraftigt växande eftersom Oracle konstruerar och kontrollerar hela stacken (hårdvara, os, middleware, applikation) så det blir oerhört snabba servrar. IBM borde göra på samma sätt, för deras POWER unix servrar agerar på en vikande marknad och en vanlig unixserver POWER kommer aldrig kunna konkurrera mot t.ex. en högt specialiserad databasserver.

Permalänk
Skrivet av MichaelJackson:

Det finns folk som inte tror på detta. Det spelar ingen roll hur mycket du förklarar och postar länkar, de förstår inte detta, eftersom de inte jobbar med sånt här så biter inga förklaringar. Det går inte in, du kan debattera med dem under flera års tid och posta hur mycket länkar som helst - förgäves. Det. Går. Inte. In. No. Matter. What.

Vet inte vilka du pekar på.

Men i alla fall, ska man gå till lågniviå (lekmannivå, såna med viss insikt vad som sitter i burken, som jag t.ex).

Kommer ihåg bulldozer lanseringen. AMD och vissa andra hävdade att den cpu:n skulle fungera bra mycket bättre i win 8 (som inte ens var släppt beta än, om jag inte har fel) och Linux, än win 7. Jag själv var lite skeptisk att den skulle få någon större boost (bara för os:et skulle hantera så många trådarna/kärnorna bättre). För det mesta programmen kör ju på 1/2 kärnor bäst så att säga (hade jag fått lära mig tidigare, var ju mitt uppe i CPU köp dessutom så vill ju köpa en som höll i många år och dessutom läst på en del om IPS och trådar/kärnor). Blev ingen bulldozer som även syns i sign

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Entusiast
Skrivet av Broken-arrow:

Vet inte vilka du pekar på.

Men i alla fall, ska man gå till lågniviå (lekmannivå, såna med viss insikt vad som sitter i burken, som jag t.ex).

Kommer ihåg bulldozer lanseringen. AMD och vissa andra hävdade att den cpu:n skulle fungera bra mycket bättre i win 8 (som inte ens var släppt beta än, om jag inte har fel) och Linux, än win 7. Jag själv var lite skeptisk att den skulle få någon större boost (bara för os:et skulle hantera så många trådarna/kärnorna bättre). För det mesta programmen kör ju på 1/2 kärnor bäst så att säga (hade jag fått lära mig tidigare, var ju mitt uppe i CPU köp dessutom så vill ju köpa en som höll i många år och dessutom läst på en del om IPS och trådar/kärnor). Blev ingen bulldozer som även syns i sign

Det var en del snack om att schemaläggaren i Windows 7 inte riktigt klarade av att hantera moduldesignen vilket ledde till att den inte användes så effektivt som den kunde. Windows visste inte om att vissa logiska kärnor delade resurser så att den kunde dumpa last på två kärnor som var i samma modul istället för två olika moduler vilket gav sämre prestanda. I andra fall kunde den sprida ut beräkningar över flera moduler istället för en vilket ledde till att flera moduler var igång än nödvändigt vilket ledde till högre strömförbrukning. Det dröjde inte så länge innan Windows 7 uppdaterades och resultatet var mätbart men inte mycket mer än så. Ingen revolution som vissa hoppades på. Något snack om Windows 8 har jag inte hört. Jag minns bara snacket om schemaläggaren.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Hjälpsam

Gillar inte att Windows shemaläggare låter processer hoppa mellan kärnorna så pass mycket.
Att detta kostar prestanda är självklart, dock vet jag inte med hur mycket.
Vad jag förstått är Linux schemaläggare mer effektiv.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Skrivet av Zotamedu:

Det var en del snack om att schemaläggaren i Windows 7 inte riktigt klarade av att hantera moduldesignen vilket ledde till att den inte användes så effektivt som den kunde. Windows visste inte om att vissa logiska kärnor delade resurser så att den kunde dumpa last på två kärnor som var i samma modul istället för två olika moduler vilket gav sämre prestanda. I andra fall kunde den sprida ut beräkningar över flera moduler istället för en vilket ledde till att flera moduler var igång än nödvändigt vilket ledde till högre strömförbrukning. Det dröjde inte så länge innan Windows 7 uppdaterades och resultatet var mätbart men inte mycket mer än så. Ingen revolution som vissa hoppades på. Något snack om Windows 8 har jag inte hört. Jag minns bara snacket om schemaläggaren.

Var så att win 8 hade just detta inbyggt, därför det pratades hårt från AMD om hur bra prestanda det blev där. Var ju ett par år sen nu, så kommer inte ihåg exakt alla detaljer så kul att du tog upp det Jo, du har så rätt i sak:)

Var ju lite åt det hållet jag menar med det skrevs högre upp, att det är redan svårt efter 2 kärnor att få bra effektivitet (även jag inser det utan server kunskaper ).

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av MichaelJackson:

Men skärp dig. SGIs 2P rackable-servrar kan köra affärssystem lika bra som Dells dito. SAP Hana går att använda på både Scale-up (exempelvis UV300H) och Scale-out, SGI har valt att stödja scale-up som de flesta andra Hana-appliances också gör. För att stödja SAPs affärsscenario/affärssystem så behöver de i SGIs fall 6TB minne (1/3 för analytics) och rekommenderar inte scale-outlösningar för Hana-driven Business Suite. SGIs system är däremot rekommenderat och certifierat. SGI säljer inget scale-outsystem för Hana. Affärssystemet kan du köra på det som passar bäst.

Scale-outlösningar som SGI ICE kan skala till tiotusentals processorer och på de systemen kör du inte ScaleMPs vSMP eller liknande. På de systemen fungerar Linux utmärkt.

Dagens sgi har egentligen ingenting att göra med SGI från 2004 för övrigt. Rackable köpte upp några av tillgångarna från det långtgående konkursboet. Men är alltså ett serverföretag grundat 1999.

De riktar sig delvis till HPC, men det betyder inte att du gör samma sak på UV som på ICE även om du utför beräkningar/simulation, på UV kan du göra mycket som du inte kan på ICE och UV kan som massivt SMP-system inte skala lika långt samtidigt kan inte ett vanligt flertrådat program skala över flera noder med ICE. Deras vanliga rackservrar är vanliga rackservrar, SGI benchar inga system i SAP så att de inte benchar UV är därför inget konstigt. Det finns heller ingen vidare anledning att köra Linux (eller Windows) i mer än 4-8P för SAP ERP, de stora Solaris och AIX-systemen passar bättre och är byggda för de stora maskinerna det kommer därför vara framträdande i.a.f. i benchmarks. SMP och Numa hanterar du programmeringsmässigt på samma sätt på en 4P server som på 32P UV300 i grunden. Du behöver inte använda MPI och du kan använda MPI på ett enskilt 1-8P serversystem som kör Intels/AMDs chipset trotts att du inte kommunicerar med något utanför lådan.

Permalänk
Skrivet av Broken-arrow:

Vet inte vilka du pekar på.

Inga namn. Men det finns folk som på fullaste allvar tror att stora och enormt dyra Unix servrar med 32 cpuer har spelat ut sin roll, och att såna servrar enkelt kan ersättas med billiga SGI servrar med flera hundra eller tusen(?) cpuer. När man säger att det är olika maskiner med olika användningsområden och kan inte ersätta varandra, så vägrar de tro på det. Man ber dem posta lite affärsbenchmarks om de nu påstår att SGI servrar kan ersätta stora Unix servrar, men det finns inga såna benchmarks. Och då kommer de med massa bortförklaringar, och till slut säger de att SGIs scale-out servrar kan ersätta alla andra maskiner på marknaden. Jag frågar efter benchmarks, men ser inga. Och jag frågar efter varför det inte finns några stora Linux servrar med 32 cpuer som används till afärrsystem, men får inga svar. Och ändå insisterar de på att SGIs scale-out servrar kan köra affärssystem - men ingen gör det och det finns inga länkar på det heller. Det spelar ingen roll hur mycket du förklarar och postar länkar och ber dem posta länkar som bevisar deras tes (det kan de inte) - ändå vägrar de ändra sin tro.

Skrivet av Ratatosk:

Gillar inte att Windows shemaläggare låter processer hoppa mellan kärnorna så pass mycket.
Att detta kostar prestanda är självklart, dock vet jag inte med hur mycket.
Vad jag förstått är Linux schemaläggare mer effektiv.

Linux schemaläggare är mer effektiv. Linux skalar ju utmärkt på stora scale-out system som SGIs servrar. SGI kör bara Linux på deras scale-out servrar. Likaså alla superdatorer (som är beräkningskluster) kör ju Linux. Men ingen kör Linux på scale-up servrar på 32 cpuer - där är Linux för dåligt. Då är Unix bättre på att skala scale-up servrar. Detta besvisas av att inga bra benchmarks i affärssystem innehas av Linux, det är alltid Unix i toppen. Linux kommer i botten. Det är bara att googla själv efter benchmarks och se.

Skrivet av Petterk:

Men skärp dig. SGIs 2P rackable-servrar kan köra affärssystem lika bra som Dells dito. SAP Hana går att använda på både Scale-up (exempelvis UV300H) och Scale-out, SGI har valt att stödja scale-up som de flesta andra Hana-appliances också gör. För att stödja SAPs affärsscenario/affärssystem så behöver de i SGIs fall 6TB minne (1/3 för analytics) och rekommenderar inte scale-outlösningar för Hana-driven Business Suite. SGIs system är däremot rekommenderat och certifierat. SGI säljer inget scale-outsystem för Hana. Affärssystemet kan du köra på det som passar bäst.

Scale-outlösningar som SGI ICE kan skala till tiotusentals processorer och på de systemen kör du inte ScaleMPs vSMP eller liknande. På de systemen fungerar Linux utmärkt.

De riktar sig delvis till HPC, men det betyder inte att du gör samma sak på UV som på ICE även om du utför beräkningar/simulation, på UV kan du göra mycket som du inte kan på ICE och UV kan som massivt SMP-system inte skala lika långt samtidigt kan inte ett vanligt flertrådat program skala över flera noder med ICE. Deras vanliga rackservrar är vanliga rackservrar, SGI benchar inga system i SAP så att de inte benchar UV är därför inget konstigt. Det finns heller ingen vidare anledning att köra Linux (eller Windows) i mer än 4-8P för SAP ERP, de stora Solaris och AIX-systemen passar bättre och är byggda för de stora maskinerna det kommer därför vara framträdande i.a.f. i benchmarks. SMP och Numa hanterar du programmeringsmässigt på samma sätt på en 4P server som på 32P UV300 i grunden. Du behöver inte använda MPI och du kan använda MPI på ett enskilt 1-8P serversystem som kör Intels/AMDs chipset trotts att du inte kommunicerar med något utanför lådan.

Vad är det jag ska skärpa mig om? SAP Hana är till för scale-out servrar. Visst kan du köra Hana på en enstaka nod med t.ex. 6TB RAM - men det tappar ju poängen. Poängen är att Hana ska klara av riktigt stora laster om det nu ska ersätta Oracles databas i stora konfigurationer. Och att köra en enda Hana nod är ju menlöst då. Då är det bättre med ett Hana kluster. Fast en Oracle scale-up 64TB RAM server kommer alltid vara mycket snabbare.

Min poäng är att en Scale-up server inte kan ersätta en Scale-out server, och vice versa. Det är alltså fel att tro att en SGI UV2000 server med 100 tals cpuer kan agera affärsserver, och ersätta en 32 cpu Unix server. Om detta är vi överens hoppas jag, du verkar hålla med mig om detta, se det understrykna ovan.

Sen förstår jag inte riktigt vad vi är oense om. Kan du specificera? Visst, t.ex. säger du att jag har fel om Hana som faktiskt kan köra scale-up server (dvs om du begränsar dig till en liten x86 single nod server) men jag pratar ju om stora laster. Och då har jag inte fel när jag säger att Hana inte är till för stora scale-up servrar, utan till för scale-out servrar (dvs klusters enligt min egen terminologi).

Permalänk
Medlem

SAP HANA är inte bara till för scale-out, utan det beror helt på vad du ska köra på databasen. 6TB är de största certifierade scale-uplösningarna från SGI (det råkar gå att stoppa in 12TB i dessa numera, 4 servrar med 12TB och numalink kommer certifieras tidigare än 2 däremot, HP är redan certade med 12TB) och i SGIs fall råkar det bestå i två numalink-system. Ska du köra i kluster ska du inte köra Numalink-servrar, mjukvaran är oftast anpassade till billigare system som inte är SSI, efter hur kluster fungerar och då duger det fint med IB. Numalink och motsvarande ger hög latency över väldigt många sockets. Ska du köra flera instanser av operativsystem på UV-serien måste du virtualisera. Hana i kluster rekommenderar de inte för SAP Business Suite (alltså ERP), men de rekommenderar alltså SGIs lösning för dito. Anledningen att de kör numalink för att bara komma upp i 8P är nog för att det har lägre latenser än QPI i mer än 4P/S samt för att skala till 32S/256S då. Det är i SGIs och IBMs fall "block" inte noder i deras scale-uplösningar. Det finns bara "ett system", inga masternoder och slavar. SGI råkar vara en form av hybrid där systemet kan användas som en super-node med program som liknar de som köras på kluster, men det betyder inte att de använder det på samma sätt som stora kluster, och ett program på ett UV-system kan använda nästan allt minne i maskinen. SAP certifierar inga klusterklösningar för Hana utan allt sånt får kunden sköta själv om de vill köra Hana klustrat.

Benchmarks kör allt på samma maskin och behöver därför inte vara beskrivande för hur de kör ute i verkligheten. SGI benchar inga system överhuvudtaget i SAP, trotts att de har system liknande HPs och Dells vanliga 4P-servrar. De servrarna är fullt jämförbart med Windows Server när de kör Redhat/SUSE Linux, så SGIs skulle hamna i samma liga själva. Kör du SAP HANA så kör du ju databasen på en egen server, det är hela poängen med en appliance. Då kör du också en setup som är anpassad för just jobbet som ska göras. Hade det inte passat hade inte SAP rekommenderat och certifierat lösningar för det.

BW och Analytics rekommenderar de scale-out till om du går över 2TB och ~8P, och för dessa fungerar det bättre med scale-out än scale-up vid den gränsen. Business Suite stöds inte i scale-out av SAP pga hur det är organiserat. Du kan alltså inte köra Business Suite i Hana utan ett stort system måttat för jobbet.

Men Hana kan du ju diskutera med SAP. SAP likställer iaf SGI UV300H med HP ConvergeSystem 900, Cisco UCS C880 M4 och så vidare. Det finns ingen anledning att tro att du skulle använda Numalink-system på annat sätt än system som använder QPI över 8-16 sockets i det här fallet. SAP hävdar bestämt att scale-upsystemen för Hana skalar så långt (för affärssystem) att vilken kund som helst kan använda dessa. Du hävdar fortfarande att dessa system är kluster och lägger till att de inte är SMP i citerade texter. Massiv SMP från SGI används alltså till för SAP ERP på Hana idag.

https://blogs.saphana.com/2014/12/10/sap-hana-scale-scale-har...
http://scn.sap.com/community/hana-in-memory/blog/2015/02/02/s...
Osv.

Permalänk
Medlem

Fattas bara pa1983 så vore detta den ultimata arkitekturtråden på Sweclockers

Visa signatur

Räkna ut hur kraftigt nätaggregat du behöver på OuterVision Power Supply Calculator. 500W räcker för de allra flesta vanliga system. Seasonic är bäst. ;) – Elektrostatisk urladdning är ett verkligt problem.
"People who are serious about software should make their own hardware" – Alan Kay
Bojkotta maffian

Permalänk
Medlem

Det behövs för övrigt inga specialkunskaper för att se skillnaden på ett stort kluster á la top500.org med tiotusentals processorer (SGI ICE finns som sagt på listan) och IBM E880 eller SGI UV300/2000. Det är lätt så länge man inte måste hävda att en maskin med (upp till) 32 eller 256-processorer är ett kluster, trotts att de används för att köra en instans av programvaran på ett operativsystem som ser hela systemet och används till annat än enbart beräkningar. SGI UV-system hittar du inte i superdatorer alls, trotts att de också används till beräkningar där det är viktigt att ha tillgång till mycket (delat och cache-koherent) minne. Arkitekturen på de passar inte in i en klustermiljö där program delas upp på många noder. Det tar ju stopp vid 32 eller 256-processorer och att köra flera sådana system som ett kluster finns det ingen vits med och det har ingen råd med. Några benchmarks för SAP HANA Business Suite finns ännu inte, det är minnet de sizar efter där, men när det kommer så måste du såklart para ihop det med en applikationsserver också och dessa kan vara SGIs Rackable, SGIs UV20 eller UV30EX, Dell 2/4P, HP 2/4P, Cisco 2/4P eller i princip vad som helst som är en enskild server. En vanlig Intel-maskin kan såklart köra affärskod. Även om den använder Numalink.

Scenariot SGIs SAP HANA-lösning är för kan inte köras på kluster. Vilket är varför de använder sina Numalink-servrar till detta. MPI-motorn finns där för att spara bandbredd vid en helt annan typ av program, men där du använder MPI för att skala till hundratals eller tusentals noder så kan du inte köra Numalink utan kör IB eller liknande. Över Numalink kan du fortfarande köra helt vanliga minnesanropp och kommunicera med processorerna, på samma sätt som om de satt i en sockel på samma moderkort, men latenserna blir så höga att det är få saker som går att köra effektivt på ett system med väldigt många processorer. De riktigt stora systemen är nog ofta partitionerade/virtualiserade ändå. Då delas det upp så att de inte kommunicerar över socklar i onödan. Databaser som SAP HANA går att köra på 16 processorer i dagsläget, certat. Applikationsservrar utan databas finns det nog liten vits att köra över 8P. Det är självklart en helt annan fråga att koda för att skala på ett massivt SMP-system, med program som är numa-aware o.s.v. än att använda MPI över IB på små noder. Vanliga trådar skalar över Numalink, men om programmet är numa-aware eller på annat sett känner till och är låst till sockel/numazon och måttat efter systemet presterar det oftast bättre, där är det ingen skillnad från utvecklarnas sida om det är HT, Numalink eller QPI.

Sådana som HP jobbar nära med SUSE och Redhat för att fixa så det skalar på dessa system. HP är ju trotts allt på gång att avveckla HP-UX och Itanium. HP benchar inte heller SAP S&D på dessa system däremot, inte är det direkt några generella databasmaskiner heller. De snabbaste HP-maskinerna i SAPs publicerade benchmarks kör Windows Server om vi bortser från en Itanium-maskin från 2006. Men ska du köra DB2 eller Oracle DB så hittar du nog bättre stöd hos annat än Linux och Windows, oavsett hur många sockets vi talar om. Power är mycket snabbt redan på 8P/80kärnor/640trådar. Både AIX och DB2 anpassas till maskinerna. E880 är t.ex. inte heller benchad i SAP. Sen bara för att du kan köra 32 processorer/sockets i SGI UV300H med SAP HANA så betyder det ju inte att du behöver en sådan konfiguration. 8P Intel Xeon spöar i dagsläget 64 processors (256 kärnor, 512 trådar) Fujitsu/Sun M9000 i SAP S&D, och du behöver inte ens köra Unix eller Linux för att klå den.

Varför du tror dig behöva värre än 16P 12TB databasserver med SAP HANA (eller att 6TB skulle vara sån kris) och (en eller flera) 8P applikationsserver har jag faktiskt ingen aning om. SAP har ju inte lagt resurser på system som inte går att använda, då hade de aldrig fått med sig företag som gör appliances för deras in-memory databas. Det går ju att skala högre än så, men då är inte lösningarna certifierade. Kör du BW eller Analytics behöver du inte så mycket minne och kommer köra klusternoder med mindre mängd. De har sin nisch och det är knappast för pyttesmå användare. Bara minne går på flera miljoner i en sådan lösning. Oracle SPARC M10 som toppar i SAP S&D benchmark använder i den konfigurationen 10TB/8TB minne, Oracle 11g/12c är ju ingen minnesdatabas (12c har dock in-memory-features) och HANA rullar bara på SLES eller RHEL så jag förstår inte jämförelsen. I M6-systemet kör de 16TB i benchmark-setup. UV300 kan i teorin köra 48TB i ett och samma system, men du kör ju ingen minnesdatabas på de stora Solaris-systemen med 64TB så där finns det inget att jämföra. Inte heller är det meningslöst när det inte går att köra Business Suite på kluster. Ska du köra något annat så passar helt annan hårdvara med mindre minne per sockel bättre. Skulle du behöva kan du på x86-hårdvara fortfarande köra ett gäng 8P 12TB minne i ett och samma chassi-maskiner som applikationsserver mot SAP HANA-maskinen, men det skulle förmodligen vara bortkastade pengar precis som M6-32 med 64TB skulle vara för affärssystem. I det här fallet handlar det ju om helt olika typer av system med annan mjukvara dessutom. SAP ERP + HANA skulle vara en 3-tier setup, applikationsservrarna behöver ju inte ens vara x86, men det är förmodligen billigt och bra om de är. x86 är en del av high-end sedan länge och har i dagsläget RAS-features som gått om de traditionella lösningarna, även hos Unix-spelarna. På Exadata kör de x86 exempelvis.

SGI kör Linux upp till 256 processorer/sockets scale-up. De är givetvis ganska ensamma att köra över 16P/S på x86 och det finns problem. IBM och Oracle/Fujitsu föredrar givetvis att du kör deras Power och SPARC-system med AIX och Solaris. Du kan däremot köra Linux på dessa, men kommersiella linuxdistributioner kostar pengar och det finns liten vits i att köra ett linux-system över alla processorer. SGIs klusternoder kör bara en till två sockets per maskin/nod så skalning på ett kluster har så gott som ingenting med deras scheduler att göra. Linuxkärnan ser ju bara en eller två processorer i ett sådant kluster. Det är klusterprogramvaran och verktygen som är intressant. Sen är de som använder och bygger superdatorer mer bekant med Linux än Windows även om det också finns på ett par top500-system emellanåt. Bygger du kluster själv så kommer du förmodligen köra något som inte har licensavgifter.