Världens snabbaste x86-baserade superdator bootar i Tyskland

Permalänk
Medlem
Skrivet av Zotamedu:

[...]en exabyte är 1000 petabyte som är 1000 terabyte, så ca 18 miljoner terabyte

Jag ska inte vara nån finne i ändan på dig.. bara påpeka att det är lite galet formulerat (1000PB != 1000TB)

Visa signatur

WS: Asus P8Z77-I Deluxe mITX | Intel 3770K@4.6 | NH-U12P | Asus 780 GTX | Corsair 2x8GB 1600Mhz CL9 | Samsung 840 512GB | Ubuntu 16.04.3 x86_64 | Corsair AX750 | 2x Dell U2412M | Puppe.se | NAS: i7 860, 16GB DDR3, GA-P55M-UD4, FD Define R3, 8x2TB Samsung F4EG, Serveraid M1015, EVGA 750W G2 PSU, FreeBSD x64

Permalänk
Medlem

SMHI kanske ska köpa in sig på den här dator så de kan klara av att tala om ifall det ska regna imorgon eller ej...

Fast det är klart, de tycker ju att "regn här och var" är en fullgod prognos så blir nog inget med det.

Permalänk
Entusiast
Skrivet av Schrimp:

Jag ska inte vara nån finne i ändan på dig.. bara påpeka att det är lite galet formulerat (1000PB != 1000TB)

Du har självklart rätt. Jag tänkte snabbare än jag skrev. Hoppas det går att tyda vad jag menar ändå.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Entusiast
Skrivet av heatm:

Problemet med cfg-beräkningar är att dom inte alltid är så lätta att beräkna parallellt eftersom beräkning n+1 beror på resultatet av beräkning n. Det går med olika tekniker men skalningen varierar kraftigt beroende på typen av beräkning. Nu behöver man ju iofs bara komma upp i 50% skalning för att 150 000 p-kärnor skall vara hyggligt snabba.

Skickades från m.sweclockers.com

Senast jag kollade lovade Ansys nära 100 % skalning upp till över 1000 kärnor. Min professor hade till och med fått skalning över 100 % upp till 64 kärnor. Sen beror det ju på hur många celler man har också. Är man uppe i flera miljoner celler och ska köra VOF eller DNS så vill man ju ha all beräkningskapacitet man kan få.

Skrivet av rektor:

Varför använder dom x86 arkitekturen istället för POWER eller SPARC?

Antagligen kompatibilitet. Trevligt att slippa skriva om all kod. Mycket möjligt att det finns ekonomiska aspekter också.

Skrivet av Yrch:

SMHI kanske ska köpa in sig på den här dator så de kan klara av att tala om ifall det ska regna imorgon eller ej...

Fast det är klart, de tycker ju att "regn här och var" är en fullgod prognos så blir nog inget med det.

Just meteorologiska beräkningar är sällsynt komplexa och svåra att modellera eftersom det finns så oerhört många parametrar som påverkar.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av Zotamedu:

Just meteorologiska beräkningar är sällsynt komplexa och svåra att modellera eftersom det finns så oerhört många parametrar som påverkar.

Jo vet, kände bara för att vara lite sarkastisk och ge SMHI en känga.
Irriterar mig egentligen inte så mycket på att de inte klarar av att göra prognoser som slår in, utan mer på att de själva verkar tro att de är så bra på det de gör. De säger ju likadant varje sommar, "det är svårt att prognostisera regnskurar, de kan komma lite varstans". Jo det är ju iofs sant, men det de egentligen menar är att när de ser ett lågtryck som sträcker sig från Danmark till de brittiska öarna som är på väg mot västkusten så klarar de av att ställa prognosen att det blir det regn hela dan i hela området. Den prognosen klarar jag också av att göra. Eller när det är högtryck och fint väder i fyra dar i rad, så är det rätt sannolikt att det är det den femte dan med.

Annars kan man ha samma prognos 365 dagar om året här i Göteborg, regnskurar och blåst. Hade man fått ungefär lika mycket rätt som SMHI

Permalänk

Äh, vadå. Min dator bootar bra mycket snabbare än den där..

Så, vem är sugen på att överklocka denna? Har på känn att grafikkortet kommer vara flaskhals ett tag framöver.

Visa signatur

MOBO: ASUS ROG STRIX Z490-F GAMING CPU: i7 10700K (Corsair Hydro H100x)
MEM: Corsair 16GB (2x8GB) DDR4 3200MHz CL16 Vengeance LPX GPU: ASUS GeForce RTX 3070 8GB TUF GAMING OC
SSD: Kingston A2000 1TB + 2TB Lagring
PSU: Corsair RM750 CASE: Taurus Gaming Elite
MONITOR: Samsung 34" 3440x1440 1000R + 2x 24" 1920x1080 KEYBOARD: Xtrfy K4 TKL Retro MOUSE: Xtrfy M42 Retro

Permalänk

5 års livstid har systemet
den ska bla. användas för nån 4K powerwall och ett virtual enviroment bla
den skulle käka BF3 crysis,shogun2 max payne 3 till frukost med säg 4xGTX690

Visa signatur

[MSI GE70 2OE-014NE]

Permalänk
Skrivet av 037180:

Kan den köra MS Röj?

Nej, den kör Linux.

Visa signatur

« CITERA FÖR SVAR »

CPU: AMD Ryzen 7 3700X ║ MB: ASUS X570-PLUS ║ RAM: 32GB ║ GPU: GeForce GTX 1080 ║ PSU: EVGA SuperNOVA 750 G2 ║ SSD: Samsung 970 EVO+ 500GB ║

Permalänk
Datavetare
Skrivet av rektor:

Varför använder dom x86 arkitekturen istället för POWER eller SPARC?

SPARC får definitivt stryk av en modern x86 på saker som är CPU-bundet, vilket definitivt är fallet på en superdator som kommer användas till beräkningar. Dagens SPARC är väldigt bra på serverlaster som dels har väldigt många samtida sessioner och där varje session är I/O-bunden.

POWER7 har bättre prestanda per socket än dagens Xeon, men Xeon har bättre prestanda per W och framförallt så har Xeon mycket bättre prestanda per krona (eller per € i detta fall). Sedan har vi OS:et. Visst stödjer Linux POWER och PowerPC, men stödet för x86 är bättre i bemärkelsen mer testat och optimerat.

Och sedan till detta med hur mycket en 32-bitars x86 kan adressera, med PAE (Physical Address Extension) som Linux stödjer fullt ut kan varje process använda upp till 4GB. Systemet kan däremot hantera ha upp till 64GB och allt detta minne kan användas, men varje enskild process kan som sagt bara adressera 4GB. Egentligen är en PAE-kärna mer lik en 64-bitars kärna än en 32-bitars kärna, alla drivrutiner måste t.ex. vara skrivna så de hanterar 64-bitars fysiska adresser (då systemet som sagt kan ha upp till 64GB vilket kräver 36-bitar, men PAE använder faktiskt 64-bitars fysiska adresser). De logiska adresserna, vilket är de "vanliga" processer ser, är däremot 32-bit med PAE till skillnad från "riktigt" 64-bit där de är 64-bitars.

Men detta är ju rätt irrelevant i detta fall då denna superdator naturligtvis kör i 64-bitars läge, i detta fall Intel64.

Namngivningen på 64-bitars x86 är ju ett mörker, dels har vi AMD64 som är det namn AMD använder och i någon mening är "rätt" namn då det är den första implementationen. Intel kallade först sin implementation för EM64T (Extended Memory 64 Technology), men ändrade sedan till Intel64.

32-bitars x86 kallas IA-32 (Intel Architecture 32) och det finns även en IA-64 (Intel Architecture 64), fast den är inte x86-baserad utan var Intels satsning på att skapa en helt ny CPU arkitektur. IA-64 har inte blivit någon större framgång och framtiden ser rätt mörk ut. Den viktigaste skillnaden mellan IA-64 och IA-32/Intel64 var tidigare att de senare saknade stöd för RAS (Reliability, Availability and Serviceability) något t.ex. SPARC och POWER också har och det är en finess man definitivt måste ha på en server som är riktigt kritiskt. Numera har även de dyrare varianterna av Xeon RAS, dessa CPUer är svindyra (1000-tals dollar per CPU) och används bl.a. i de datacenter som växer fram för att serva våra mobiler och liknande i "molnet".

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk

Kan den köra BF3 på ultra?

Visa signatur

CPU:: Intel Core i7-2600K @ 3.9GHz |Mobo: Asus P8P67 Deluxe |RAM: G.Skill DDR3 16 GB |Grafik: Asus Radeon HD 290X DirectCU II |OS: Windows 7 Professional 64-bit |Chassi: Fractal Design R3 |Hårddisk: SSD Samsung 128GB 830 Series & Seagate Barracuda 7200.12 (3TB) |Nätagg: Fractal Design 800W |Mus: Mionix Avior 8200 |KB: Ducky Shine2 Green LED Brown mx |Monitor: Samsung SyncMaster P2370 (2ms / 50000:1 / Slim) @ 1920x1080

Permalänk
Datavetare
Skrivet av Der_Synth:

32 bitars processorer kan bara addressera 2^32 byte = 4 GB.
Intel® Xeon® Processor E5-2680 är begränsad till 750 GB.

Men nu var ju det här ett kluster, dvs flera datorer ihopkopplade.
Alla cpuer addresserar ju inte allt minne, utan har bara tillgång till en egen liten del.
18432 cpuer har tillsamans 288000 GB minne = ca 16 GB minne / cpu.

Det är inte riktigt så enkelt. Detta system, precis som de flesta andra x86-baserade superdatorer, kopplar ihop noderna via Infiniband länkar. En sak man kan göra över Infiniband är att brygga ihop flera "moderkort" så att alla CPUer "ser" allt RAM även på de andra noderna. Naturligtvis kostar det mer att läsa/skriva minne som ligger på "fel" nod, men det är full möjligt och trots allt relativt snabbt. Detta är en form av NUMA (Non Uniform Memory Access).

I detta system har även varje "moderkort" 4 CPU:er och varje CPU har ju sin egen minneskontroller, så även inom varje "moderkort" finns 4 NUMA zoner som är ihopkopplade via Intel QPI (Quick Path Interface).

Enligt http://www.lrz.de/services/compute/supermuc/systemdescription/ så varierar mängden fysiskt direkt adresserbart RAM i olika delar av systemet, men som mest kan en enskild del av systemet "se" 256GB(!). Hyfsat med RAM

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Twister86:

Kan den köra BF3 på ultra?

tveksamt

Permalänk
Medlem
Skrivet av Yoshman:

Det är inte riktigt så enkelt. Detta system, precis som de flesta andra x86-baserade superdatorer, kopplar ihop noderna via Infiniband länkar. En sak man kan göra över Infiniband är att brygga ihop flera "moderkort" så att alla CPUer "ser" allt RAM även på de andra noderna. Naturligtvis kostar det mer att läsa/skriva minne som ligger på "fel" nod, men det är full möjligt och trots allt relativt snabbt. Detta är en form av NUMA (Non Uniform Memory Access).

I detta system har även varje "moderkort" 4 CPU:er och varje CPU har ju sin egen minneskontroller, så även inom varje "moderkort" finns 4 NUMA zoner som är ihopkopplade via Intel QPI (Quick Path Interface).

Enligt http://www.lrz.de/services/compute/supermuc/systemdescription/ så varierar mängden fysiskt direkt adresserbart RAM i olika delar av systemet, men som mest kan en enskild del av systemet "se" 256GB(!). Hyfsat med RAM

Är det inte två CPUer per kort?

Permalänk
Medlem
Skrivet av Schnitz:

Kommer ni ihåg när datorer var så stora att de tog upp ett helt rum?

Japp, jag har jobbat med en, har du?

Permalänk
Entusiast
Skrivet av Yrch:

Jo vet, kände bara för att vara lite sarkastisk och ge SMHI en känga.
Irriterar mig egentligen inte så mycket på att de inte klarar av att göra prognoser som slår in, utan mer på att de själva verkar tro att de är så bra på det de gör. De säger ju likadant varje sommar, "det är svårt att prognostisera regnskurar, de kan komma lite varstans". Jo det är ju iofs sant, men det de egentligen menar är att när de ser ett lågtryck som sträcker sig från Danmark till de brittiska öarna som är på väg mot västkusten så klarar de av att ställa prognosen att det blir det regn hela dan i hela området. Den prognosen klarar jag också av att göra. Eller när det är högtryck och fint väder i fyra dar i rad, så är det rätt sannolikt att det är det den femte dan med.

Annars kan man ha samma prognos 365 dagar om året här i Göteborg, regnskurar och blåst. Hade man fått ungefär lika mycket rätt som SMHI

Risken finns att du hade fått bättre resultat än SMHI. Det klassiska Göteborgsvädret kan man alltid lita på. Annars finns ju klassikern att alltid utgå från att det blir samma väder som föregående dag. Ska tydligen också ge bättre resultat som SMHI. Fast här i Göteborg är det ju i princip samma sak

Edit: Får se det på den ljusa sidan. Det kunde ju varit värre, vi kunde bott i Bergen...

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Datavetare
Skrivet av lorgix:

Är det inte två CPUer per kort?

I det som kallas "Thin Node" så är det så, tittar man på hur stor andel av hela "datorn" som tas upp av "Thin Nodes" så verkar det vara den del som utför själva number-crunchingen. "Thin Nodes" består av Sandy Bridge EP. "Xeon EP" plattformen stödjer maximalt 2 sockets.

I det som kallas "Fat Node" så används Westmere EX, "Xeon EX" plattformen stödjer maximalt 8 sockets och är Intels high-end plattform för servers. I denna superdator används 4 sockets.
Länk: http://www.lrz.de/services/compute/supermuc/systemdescription/Westmere-EX/

Verkar ju vettigt att köra Sandy Bridge på beräkningsdelen då, till skillnad från desktop, så är prestandaskillnaden mellan Westmere Xeon (som är en krympt Nehalem) och Sandy Bridge Xeon rätt stor, beroende på vad man gör så kan det vara upp mot 80%(!).

Edit: kollade upp rekommenderat pris på den CPU som används i "Fat Node", E7-4870 kostar $4394 styck
Den Sandy Bridge EP som används, E5-2680, kostar "bara" $1723

Och som jag skrev ovan, jämfört med t.ex. POWER7 så är detta alltså "billigt"...

Edit2: Finns ju även siffror på skillnaden i kostnad för lokal minnesaccess och minnesaccess via Infiniband, man måste säga att Infiniband är rätt imponerande snabbt. Access av "lokalt" minne tar ~50ns på en "Thin Node" och ~70ns på en "Fat Node", en "remote" access tar ~90ns mellan "Thin Nodes" och ~120ns mellan "Fat Nodes". Kostnaden är signifikant, men är ändå imponerande snabbt.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Entusiast
Skrivet av Yoshman:

I det som kallas "Thin Node" så är det så, tittar man på hur stor andel av hela "datorn" som tas upp av "Thin Nodes" så verkar det vara den del som utför själva number-crunchingen. "Thin Nodes" består av Sandy Bridge EP. "Xeon EP" plattformen stödjer maximalt 2 sockets.

I det som kallas "Fat Node" så används Westmere EX, "Xeon EX" plattformen stödjer maximalt 8 sockets och är Intels high-end plattform för servers. I denna superdator används 4 sockets.
Länk: http://www.lrz.de/services/compute/supermuc/systemdescription/Westmere-EX/

Verkar ju vettigt att köra Sandy Bridge på beräkningsdelen då, till skillnad från desktop, så är prestandaskillnaden mellan Westmere Xeon (som är en krympt Nehalem) och Sandy Bridge Xeon rätt stor, beroende på vad man gör så kan det vara upp mot 80%(!).

Edit: kollade upp rekommenderat pris på den CPU som används i "Fat Node", E7-4870 kostar $4394 styck
Den Sandy Bridge EP som används, E5-2680, kostar "bara" $1723

Och som jag skrev ovan, jämfört med t.ex. POWER7 så är detta alltså "billigt"...

Edit2: Finns ju även siffror på skillnaden i kostnad för lokal minnesaccess och minnesaccess via Infiniband, man måste säga att Infiniband är rätt imponerande snabbt. Access av "lokalt" minne tar ~50ns på en "Thin Node" och ~70ns på en "Fat Node", en "remote" access tar ~90ns mellan "Thin Nodes" och ~120ns mellan "Fat Nodes". Kostnaden är signifikant, men är ändå imponerande snabbt.

Så vad skulle POWER7 ge för fördelar? Var det den eller RISC som hade galet många kärnor för extremt parallelliserade beräkningar men som hade sämre enkeltrådad prestanda? Om vi nu bortser från det klassiska med stabilitet och sånt.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem

Hur ser taskmanagern ut med 155000 kärnor?

Visa signatur

4690K, 16GB ram, 1,25TB SSD, Radeon 7750
100% PASSIVT

Permalänk
Medlem

-De skulle spä på med några hundra K10 (GK104), sen skulle det bli lite mera åka av.. Som en trevlig bieffekt kan alla på skolan köra CS i 100 FPS hela kvällarna.
- Hoppas de har bockat för att använda alla kärnorna vid systemstart i msconfig
- Har de köttat igång HT så har de ju ett ännu mera groteskt antal cores att titta på i taskmanager

Givetvis så måste ju någon klåfingrig först installera Windows home premium.

Permalänk
Datavetare
Skrivet av Zotamedu:

Så vad skulle POWER7 ge för fördelar? Var det den eller RISC som hade galet många kärnor för extremt parallelliserade beräkningar men som hade sämre enkeltrådad prestanda? Om vi nu bortser från det klassiska med stabilitet och sånt.

Det är väl IBMs problem, det börjar finnas väldigt få saker som motiverar varför man ska betala mycket mer för en POWER jämfört med x86. Än så länge är POWER7 den snabbaste CPU du kan köpa, men det skiljer numera kanske 20-30% mot den snabbaste Sandy Bridge Xeon CPUn, de brukade skilja heltalsfaktorer. Nu kommer det en uppdaterad POWER7 snart och den förväntas köra över 5GHz (ligger en bit över 4GHz just nu), men frågan är hur Haswell kommer prestera...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Twister86:

Kan den köra BF3 på ultra?

Den saknar bra gpu xD

Permalänk
Entusiast
Skrivet av Dunde:

De skulle spä på med några hundra K10 (GK104), sen skulle det bli lite mera åka av.. Som en trevlig bieffekt kan alla på skolan köra CS i 100 FPS hela kvällarna.

Varför? GK104 är inte så kul för GPGU utan är specifikt designad för spel. M2090 är antagligen ett bättre val för den är över tre gånger snabbare på double precision. M2090 presterar 665 GFLOPS och K10 klarar bara 190 och då är det dubbla processorer. En ensam GK104 klarar bara 95 GLFOPS så Fermi är sex gånger snabbare per GPU.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Entusiast
Skrivet av Yoshman:

Det är väl IBMs problem, det börjar finnas väldigt få saker som motiverar varför man ska betala mycket mer för en POWER jämfört med x86. Än så länge är POWER7 den snabbaste CPU du kan köpa, men det skiljer numera kanske 20-30% mot den snabbaste Sandy Bridge Xeon CPUn, de brukade skilja heltalsfaktorer. Nu kommer det en uppdaterad POWER7 snart och den förväntas köra över 5GHz (ligger en bit över 4GHz just nu), men frågan är hur Haswell kommer prestera...

Är inte det en uppdatering som folk väntat på i evigheter nu?
Gäller den prestandaboosten allt eller är det bara specifika typer av beräkningar?

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem

Vad fasiken ska tyskarna använda denna superdatorn till?

Visa signatur

Ryzen 3600 | RX6800

Permalänk
Skrivet av bringho:

Japp, jag har jobbat med en, har du?

2 inlägg på 1 år, nice

Visa signatur

I5 2500K | 16GB DDR3 "1600" | CORSAIR FORCE GT 128GB | 38TB WD | |ASUS P8P67 DELUXE REV 3 | XFX 7970 | OCZ ZX 1000W | LG 27" | 6.0 STEREO

Permalänk
Skrivet av JesperDa:

Vad fasiken ska tyskarna använda denna superdatorn till?

Facebook såklart

Visa signatur

I5 2500K | 16GB DDR3 "1600" | CORSAIR FORCE GT 128GB | 38TB WD | |ASUS P8P67 DELUXE REV 3 | XFX 7970 | OCZ ZX 1000W | LG 27" | 6.0 STEREO

Permalänk
Datavetare
Skrivet av Zotamedu:

Är inte det en uppdatering som folk väntat på i evigheter nu?
Gäller den prestandaboosten allt eller är det bara specifika typer av beräkningar?

Det ska tydligen komma två uppdateringen ganska tätt inpå. Som jag förstått det så kommer en uppdatering i slutet av detta år som "bara" är en högre klockad POWER7, sedan ska POWER8 komma nästa år. Måste säga att jag egentligen inte vet något om vad man kan förvänta sig av POWER8.

Och till fördelarna POWER har (hade) över x86, RAS var ju något som länge saknades i Xeon och POWER kunde också skalas mycket längre, fler CPUer per "moderkort" och fler kärnor per CPU. Men numera har även Xeon i princip alla RAS funktioner som POWER (och SPARC), gränsen för antal CPUer per moderkort är 8 på alla dessa plattformar.

Vad det gäller kärnor per CPU så har ju Xeon gått förbi med sina max 10 kärnor per CPU mot POWER7s 8 kärnor per CPU (SPARC T4 har också max 8 kärnor). Däremot så är totala antalet CPU-trådar högre på både POWER7 (4 per CPU kärna, 32 per CPU) och SPARC T4 (8 per CPU kärna, 64 per CPU). På servers så kan "hyperthreading" ge väldigt mycket bättre effekt jämfört med desktop då HT kan vara ett väldigt effektivt sätt att "gömma" latens mot RAM och latens mot I/O-enheter, servers jobbar normalt sett på mycket större datamängder än en desktop så det blir cache-missar oftare och mängden I/O som servers gör är ofta mycket högre än desktops. På rena matematiska beräkningar så är ju SPARC T4:ans 8 trådar per CPU helt meningslöst.

Det man också ska komma ihåg är att POWER7 har en TDP på över 200W(!), något som kräver ganska speciella (=dyra) material. Trots denna höga TDP så är den alltså bara marginellt snabbare än en 10-kärnors Xeon EX med en TDP på 130W.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av JesperDa:

Vad fasiken ska tyskarna använda denna superdatorn till?

räkna öl

Visa signatur

mobo Asus M4A88TD-M EVO/USB3 cpu 1100T kylare Noctua NH-D14
gpu RX 460 passive ram 16GB DDR3 1600MHz ssd Samsung 850 EVO 250GB
psu Corsair AX 850 skärmar 3 * 40" NEC P401

Permalänk
Medlem

Koldrivet ?

Då tyskarna skall dumpa kärnkraften lär detta bli brunkolsdrivet. Brunkol brukar ge c:a 1,5 KWh el / kg kol beroende på fukthalt och effektivitet i kraftverket. Denna lilla anläggning drar 3.5 MW och går troligtvis 24/7 vilket ger en förbrukning på 84000 KWh / dygn, d.v.s. 56 ton kol / dygn eller lite över 20000 ton / år. Mycket skit blir det...
Och ändå kan den inte spela Crysis.

Permalänk
Rekordmedlem
Skrivet av ddelin:

Då tyskarna skall dumpa kärnkraften lär detta bli brunkolsdrivet. Brunkol brukar ge c:a 1,5 KWh el / kg kol beroende på fukthalt och effektivitet i kraftverket. Denna lilla anläggning drar 3.5 MW och går troligtvis 24/7 vilket ger en förbrukning på 84000 KWh / dygn, d.v.s. 56 ton kol / dygn eller lite över 20000 ton / år. Mycket skit blir det...
Och ändå kan den inte spela Crysis.

Hur räknar du nu? Du har nog fel på prefixen ?
men visst mycket kol blir det, å andra sidan så kan man ju återvinna värmeenergin.

Visa signatur

R5 5600G, Asus ROG STRIX X470-F Gaming, WD SN850X 2TB, Seasonic Focus+ Gold 650W, Aerocool Graphite v3, Tittar på en Acer ET430Kbmiippx 43" 4K. Lyssnar på Behringer DCX2496, Truth B3031A, Truth B2092A. Har också oscilloskop, mätmikrofon och colorimeter.