Nvidia Tesla i världens snabbaste superdator

Permalänk
Medlem
Skrivet av brillorm:

Världens dyraste bastu.

Tror inte dom kommer upp i så hög temp. Tror varken CPU eller GPUer når upp i 100C.

Visa signatur

Sex kärnigt på modermodemet och ett gäng 680s i hårddisken

Permalänk
Medlem

Tack för rapporten swec, mer sånt. Nu måste jag googla på nya värstingen

Permalänk
Medlem

så det är därför kina spam ökar, dom kan äntligen brutforca captcha i realtid

Visa signatur

i7 2600k | P8P67Deluxe | Noctua NH-D14 | KFA2 GTX1080 EXOC | Corsair 750W | Corsair Obsidian 800D | Dell U2412M
America's Army: Proving Grounds

Permalänk
Inaktiv

forskning och vetenskapliga beräkningar på National University of Defense Technology i Kina ...

Man kan ju undra vad det är för forskning som sker där..

Permalänk
Medlem

Skynet jobbade i 60TFLOPS.

Permalänk
Medlem
Skrivet av ManBearPig:

Han var nog ganska sarkastiskt i den frågan, men jag förstår din poäng

Nej det var han inte. Sarkastiskt skulle det vara om han ville skämta, men eftersom dessa "skämt" inte längre är roliga och uttjatade sedan flera år tillbaka så kan han omöjligt varit det. Han var alltså helt och hållet allvarlig utan någon form av sarkastisk vinkel...

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Medlem
Skrivet av ÖverKlockaN:

hmm skaplig dator, undra om den drivs av ett (eller flera) kärnkraftverk.

Skämtet var inte kul den första gången, och det är inte kul den 5000e gången heller.
Kostar ~1kr mer om dagen att ha ett 480 på 100% load en hel dag än vad det gör att ha ett 5870 på load i en hel dag.

oj oj oj.

Visa signatur

AMD 5900x | ASUS 3080GTX | ASUS Xonar Essence STX | 32GB | Fractal R5
Xtrfy XG1-R LED | Logitech G502 v2 | Sennheiser HD650 | Audio Engine A5+

Permalänk
Medlem

Trevligt med Tesla i världens snabbaste dator Det måste ge bra PR.

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Medlem

vad för typ av vetenskapliga beräkningar görs det?

0/0 = ....

Permalänk
Medlem

Blir intressant att se intensiteten och effekterna av de kommande cyberattackerna iaf...

Visa signatur

Riggen:ASRock X570M Pro4 - AMD Ryzen 7 3700X - Corsair 32GB DDR4 3200MHz - Corsair MP510 960Gb NVME - EVGA 1080ti SC2 - 3x Samsung 840 500GB - EVGA SuperNOVA G1+ 650W - Fractal Design Meshify C Mini Dark TG
NAS: FreeNAS @ HP Proliant MicroServer Gen 8 - Xeon E3-1230 V2 - 16Gb Kingston ECC RAM - Intel 530 120Gb - IBM m1015/LSI 9220-8i - 4x WD Red 3Tb

Permalänk
Skrivet av 1guy:

Skämtet var inte kul den första gången, och det är inte kul den 5000e gången heller.
Kostar ~1kr mer om dagen att ha ett 480 på 100% load en hel dag än vad det gör att ha ett 5870 på load i en hel dag.

oj oj oj.

Går att steka ganska många ägg med 1 kWh! Förövrigt tror jag inte han/hon pekade på förbrukningen hos nVidiakorten med den kommentaren. 4,04 MW är mycket, oavsett.

Visa signatur

Citera, tack!
Har du läst tråden om strandhögtalare och andra musiklådor?

Permalänk
Medlem
Skrivet av blomqvist:

4,04 MW är mycket, oavsett.

Inte om man tänker efter

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Medlem

Oj,Oj,Oj
Undrar hur många FPS man skulle få i Metro 2033 med den dator
Nämen skämt åsido så måste datorn kostat en hel jävla del, Stackars dom som var tvungna att sätta i 14 336 CPU:er

Visa signatur

ASRock P67 Extreme 4 REV B3 | Corsair 8GB (2x4096MB) 1600MHz| Intel Core i5 2500K , 4.3GHz | Gigabyte GeForce GTX 660 TI | Corsair TX 550W 80+ | Fractal Design Define R3

Samsung Galaxy S III

Permalänk
Medlem
Skrivet av anon56869:

forskning och vetenskapliga beräkningar på National University of Defense Technology i Kina ...

Man kan ju undra vad det är för forskning som sker där..

Dom studerar hur proteiner viker sig så att dom kan stoppa många allvarliga sjukdomar, så att Kina kan bli känt som "landet som räddade världen".

Visa signatur

Processor: AMD FX-8350 Grafikkort: AMD Radeon 290 Primärminne: 16 GB Corsair Vengeance Sekundärminne: 1x1TB WD Black 7200RPM, 4x2TB WD Green 5400 RPM

Permalänk
Medlem

Folda på den

Visa signatur

i7-6700K | MSI Z170A | MSI 1080 8GB | 16GB Kingston HyperX | Intel 600P 256GB | Samsung EVO Basic 840 250GB x2 raid 0 | Corsair RM 750W | 3 x Dell U2414H

Permalänk

Den används nog till att klura ut nästa bitchiga valutapolicy...

Permalänk
Medlem

Hade vart kul att få titta på koden till Operativsystemet, måste vara ett helvete att skriva något som använder alla processorer och sprider beräkningarna gämt över alla. Konstigt nog får man sällan höra något om hur super datorerna är uppbyggda, BIOS kan inte vara något att tala om men hade vart kul och veta vad som ligger under huven.

Visa signatur

Amiga 3000 (1990), CPU: 68060 66MHz, RAM: 2MB chip 470MB Fast, GFX: ECS+RTG zz9000 @ 1920x1080, HDD: 32GB SSD/PATA, 128GB SCSI, DVD-Brännare/SCSI, Chassi: Original Desktop. www.som99.se
Primär workstation: i9-12900KS, 128GB RAM, intel A770 16GB.

Permalänk
Medlem
Skrivet av som99:

Hade vart kul att få titta på koden till Operativsystemet, måste vara ett helvete att skriva något som använder alla processorer och sprider beräkningarna gämt över alla. Konstigt nog får man sällan höra något om hur super datorerna är uppbyggda, BIOS kan inte vara något att tala om men hade vart kul och veta vad som ligger under huven.

80% (med felmarginal på 40% ) bygger på Linux.. så koden kan du kolla på enkelt.

Visa signatur

I reject your reality and substitute my own.

Permalänk
Medlem
Skrivet av ÖverKlockaN:

hmm skaplig dator, undra om den drivs av ett (eller flera) kärnkraftverk.

Du har en väldigt skev uppfattning om hur mycket energi ett kärnkraftverk levererar

Visa signatur

Snälla citera när ni svarar :D

Wololo

Permalänk
Medlem
Skrivet av anon56869:

forskning och vetenskapliga beräkningar på National University of Defense Technology i Kina ...

Man kan ju undra vad det är för forskning som sker där..

Man hjälper militären att beräkna missil-banor såväl åt öster som väster och norr. Kina är överbefolkat och saknar många råvaror så förr eller senare behöver man mer land. Tysken me mustaschen visar vägen...

Citera mig gärna - innan det är för sent.

Permalänk
Medlem
Skrivet av jookeer:

Man hjälper militären att beräkna missil-banor såväl åt öster som väster och norr. Kina är överbefolkat och saknar många råvaror så förr eller senare behöver man mer land. Tysken me mustaschen visar vägen...

Citera mig gärna - innan det är för sent.

Känns inte troligt.

Permalänk
Skrivet av Encho5:

Oj,Oj,Oj
Undrar hur många FPS man skulle få i Metro 2033 med den dator
Nämen skämt åsido så måste datorn kostat en hel jävla del, Stackars dom som var tvungna att sätta i 14 336 CPU:er

Tror inte de e nåra vanliga brädor med sockets och sånt. Förmodligen satt direkt på brädan med maskin

Permalänk
Skrivet av Pimpim666:

Tror inte dom kommer upp i så hög temp. Tror varken CPU eller GPUer når upp i 100C.

Mitt interagerade grafikort brukar gå upp i 99-105 grader efter jag spelat CS 1.6 i en halvtimme
Just nu ligger den på 89grader när jag små surfar
Efter en natt sömns för mig och datorn så ligger GPU:n på ung. 50 grader.

Permalänk
Medlem
Skrivet av som99:

Hade vart kul att få titta på koden till Operativsystemet, måste vara ett helvete att skriva något som använder alla processorer och sprider beräkningarna gämt över alla. Konstigt nog får man sällan höra något om hur super datorerna är uppbyggda, BIOS kan inte vara något att tala om men hade vart kul och veta vad som ligger under huven.

Varje nod i klustret är helt enkelt en egen dator som kommunicerar med andra noder över en snabb anslutning, själva operativsystemet behöver inte ha något med saken att göra.
Varje nod kör en instans av beräkningsprogrammet och kommunicerar med andra noder i den mån som behövs med t.ex. MPI. På något sätt avgör varje nod vilken del av problemet just den noden ska arbeta med och skickar senare vidare resultatet.

Visa signatur

Intel Core i7-3770K | NVIDIA Geforce GTX 980 | 16 GB DDR3 | DELL P2415Q | DELL U2711 | DELL U2410

Permalänk
Medlem
Skrivet av prellenboi:

Mitt interagerade grafikort brukar gå upp i 99-105 grader efter jag spelat CS 1.6 i en halvtimme
Just nu ligger den på 89grader när jag små surfar
Efter en natt sömns för mig och datorn så ligger GPU:n på ung. 50 grader.

Intressant...

Tesla kort är inte integrerade kort.

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Medlem

Trevligt för kineserna.
Nån som vet vad det är för CPUer? Har fått fram att det är Xeon och antingen 4- eller 8-kärniga varianter om man förutsätter att 14336 är antalet kärnor, men det kanske är antalet fysiska processorer?

Visa signatur

Intel i7 3770K@4,5GHz | EK-Supremacy | ASUS P8Z68-V| Samsung 30nm 1600 CL11@1866 CL9 4x4GB | Geforce GTX780 Ti | EK-FC Titan Plexi | Enermax Platimax 1500W | Ubuntu 20.04 & Windows 10

Permalänk
Avstängd
Skrivet av m3tr0:

Jag tänkte väl mer GPU:n som en hel enhet. Förresten så är väl GPU:n, som jag förstått, ganska kass på att köra olika uppgifter samtidigt (testa att spela ett spel samtidigt som du kör GPGPU-projekt). CPU:n bör vara snabbare på att växla mellan olika uppgifter (processer) - speciellt om man har flera kärnor. GPU:n kör för det mesta bara en uppgift samtidigt, t ex ett spel, men renderingen av grafiken går ju att parallellisera väldigt mycket - sjukt många trådar skapas, grupperade i "wave fronts" eller "warps", i GPU:n.

En GPU har massor med kärnor och i och med unified shader architecture väldigt lik en CPU. Ditt förslag att spela ett spel samtidigt som man kör en beräkning med samma GPU är som att säga åt någon att pröva att folda och köra prime95 samtidigt.

Anledningen att det känns snabbare är dels för att det ofta är mindre krävande uppgifter man kastar på sin CPU, det är ju sällan man packar upp ett gäng stora filer, samtidigt som man göra prestandatunga simulationer med flyttal. Dessutom är det för ditt OS är konstruerat för att din CPU ska peta kraft till det du håller på med så det känns snabbt och mysigt.

Skrivet av blomqvist:

Går att steka ganska många ägg med 1 kWh! Förövrigt tror jag inte han/hon pekade på förbrukningen hos nVidiakorten med den kommentaren. 4,04 MW är mycket, oavsett.

Inte så många som du kanske tror, en spis drar ungefär 2.2 KW på full effekt (en platta).
Om vi vill se vad den mystiska enheten KWH egentligen är så gör vi en liten enhetsanalys.
K = kilo = 1000
W = J/s
H = timme = 3600 s

Alltså är enheten 3600*1000*(J/s)*s = 3 600 000 J = 3.6 MJ

3 600 000/2 200 ~ 1640 s ~ 27 minuter

Om du steker ett ägg på tre minuter räcker det alltså bara till 9 ägg.

Permalänk
Medlem
Skrivet av abflex:

Om du steker ett ägg på tre minuter räcker det alltså bara till 9 ägg.

Räcker med en minuts stekning.

Permalänk
Medlem
Skrivet av abflex:

Inte så många som du kanske tror, en spis drar ungefär 2.2 KW på full effekt (en platta).
Om vi vill se vad den mystiska enheten KWH egentligen är så gör vi en liten enhetsanalys.
K = kilo = 1000
W = J/s
H = timme = 3600 s

Alltså är enheten 3600*1000*(J/s)*s = 3 600 000 J = 3.6 MJ

3 600 000/2 200 ~ 1640 s ~ 27 minuter

Om du steker ett ägg på tre minuter räcker det alltså bara till 9 ägg.

Din uträkning har ingen förankring i verkligheten.
2,2 kW är en kraftig platta, och ändå klarar den i ditt exempel inte av att steka mer än ett ägg åt gången. I själva verket kan den förmodligen ge mer än tillräcklig stekvärme för en 40 cm stekpanna, vilket är 1256 cm2. Låt oss anta att ett stekt ägg behöver en yta motsvarande en cirkel med diametern 10 cm. Det ger 79 cm2 per ägg, vilket gör att du kan steka 16 ägg åt gången.
Helt plötsligt har dina 9 ägg blivit 144 stycken.
Är dessutom ganska övertygad om att du måste dra ner effekten om du vill ha äggen genomstekta utan att bli vidbrända på undersidan, så plattan kommer vara i drift längre än 27 minuter och du hinner med att steka ännu fler ägg.

Ontopic:
Nu väntar vi bara på den officiella listan från Home | TOP500 Supercomputing Sites

Visa signatur

Vägra fx 3of4 Pi 1M 1.84 s Memory remapping
Minnen har ingen egen hastighet. Märkningen anger bara vilken hastighet minnena uppges klara

Permalänk
Medlem
Skrivet av abflex:

En GPU har massor med kärnor och i och med unified shader architecture väldigt lik en CPU. Ditt förslag att spela ett spel samtidigt som man kör en beräkning med samma GPU är som att säga åt någon att pröva att folda och köra prime95 samtidigt.

Anledningen att det känns snabbare är dels för att det ofta är mindre krävande uppgifter man kastar på sin CPU, det är ju sällan man packar upp ett gäng stora filer, samtidigt som man göra prestandatunga simulationer med flyttal. Dessutom är det för ditt OS är konstruerat för att din CPU ska peta kraft till det du håller på med så det känns snabbt och mysigt.

Eh nej, en GPU är inte särskilt lik en CPU. De är ju designade för olika arbetsuppgifter så det är ju inte så konstigt. Visserligen skulle ju en CPU kunna göra allt en GPU gör men poängen med en GPU är att den är mycket mer energieffektiv (sen råkar iofs GPU:n passa för vissa andra tillämpningar också som inte har så mycket med grafik att göra). Kolla in Beyond3D där de gör djupdykningar i hur en GPU är designad.

Du har uppenbarligen inte kört folding@home eller BOINC 24/7 samtidigt som du använt datorn till annat.

Att köra flera tunga processer på CPU:n är inget problem alls. Jag märker inte alls att jag har t ex BOINC i bakgrunden. Ej heller om jag kör OCCT's CPU-test eller videokodningsprogram. Jag kan utan problem köra flera av dem samtidigt utan de märks alls - även då antalet tunga processer/trådar är mer än antalet CPU-kärnor. Prioriteten på processen har naturligtvis betydelse förstås - det är därför tunga processer helst körs i låg prioritet för att inte störa program/GUI som kräver snabb responstid och som därför körs i hög prioritet.

När det gäller filöverföringar och ned- och uppackningar så är det nästan alltid hårddisken som begränsar. Därför går det segt att utföra andra hårddiskintensiva uppgifter samtidigt. Att köra processor-intensiva program samtidigt som hårddisk-intensiva program går naturligtvis utmärkt. Här är det en SSD som gäller.

Kör man två eller flera uppgifter samtidigt på GPU:n märks det tydligare. Det spelar heller ingen roll om den process som matar GPU:n har låg eller hög prioritet. Att det märks beror på att GPU:n helt enkelt kör en uppgift i taget. T ex Milkyway@home försöker skicka, i standardinställningen, "arbetspaket" till GPU:n 30 ggr i sekunden dvs tiden att utföra ett "arbetspaket" tar ca 33 ms. Under hela den tiden gör GPU:n inget annat än att köra Milkyway@home och GUI-uppdateringar får vänta på sig. Jag har dock ökat det till 60 ggr i sekunden för annars var GUI-lagget nästintill outhärdligt. DNETC@home, som också körs på GPU:n, har knappt nåt GUI-lagg av nån anledning men jag vet mindre om hur den hanterar GPU:n.

Det är inte helt omöjligt att spela samtidigt som man kör DC-projekt på GPU:n, men det beror lite på vilket spel och DC-projekt man kör. Att spela samtidigt som man kör DC-projekt på CPU:n går dock utmärkt såvida inte DC-projektet tar så mycket minne att det inte blir så mycket över till spelet.

Visa signatur

AMD Ryzen 5 3600 | 4x8GiB 18-20-16-36-52-2T DDR4-3400 | MSI B450-A Pro Max AGESA 1.2.0.7 | Sapphire RX 480 Nitro+ OC 8GiB | Crucial MX500 500GB | PNY CS900 2TB | Samsung 850 EVO 500GB | Samsung PM961 512GB | Scythe Kamariki 4 450W