Intel kontrar Threadripper med 22 kärnor på Cascade Lake-X

Permalänk
Medlem
Skrivet av Nivity:

Ja snacka är enkelt, vi har ju sett hur det gått för AMD senaste åren med deras fiasko GPUer

Jag hoppas de kan lansera ett kort äntligen som kan tävla med Nvidia då det kanske kan pressa priserna.

Nu är han ju säkerligen inte ensamt ansvarig, men Raja Koduri har slutat på AMD.
Han jobbar ju numera hos Intel och vad jag har förstått ska Intels arkitektur vara "alla kretsars fader".
https://www.nordichardware.se/nyheter/intel-xe-grafikkrets.ht...
En arkitektur som ska klara allt.

Minns jag inte fel så var styrelsen på AMD inte överens med Koduri om inriktningen på Vega eller Navi, minns
inte vilken av dem. Navi verkar ju prestera betydligt bättre i spel än Vega gör.
Vega 64 presterar sämre än 5700XT, trots fler beräkningsenheter. Till viss del kan man skylla på frekvens, men det är inte enbart det som styr. 5700XT är nära Vega VII i prestanda. Navi har potential.

Visa signatur

Akashiro 0.9: Ryzen 5 7600, Radeon RX 7800XT Pure: 64/2000
https://podcasters.spotify.com/pod/show/thomaseron

Permalänk
Datavetare
Skrivet av cyklonen:

GPGPU är kanske för minnesbegränsat?

Pascal och senare samt Vega och senare (helt övertygad om att Xe kommer ha stödet från v1.0) kan mappa in CPU-ram som sitt eget och i det läget göra VRAM till en väldigt stor cache.

Tar man t.ex. rendering räcker det då att en enda "tile" får plats i VRAM för att prestanda ska vara precis där man förväntar sig.

Skrivet av cyklonen:

Men sen finns det kanske fall där flera oberoende processer kan köras samtidigt, som på en mer fåkärnad processor skulle behöva köras efter varandra och ta längre totaltid?

Markerade är idealfallet för uppgiftsparallellism. Det GPUer inte fixar är att de olika processerna gör helt olika saker (kör olika instruktioner), det är fallet där multicore-CPUer har, och lär komma att ha, sin givna plats.

I dataparallella fall är data olika för alla kärnor, men alla kärnor följer samma "recept" (typexempel här är rendering, matrisoperationer, maskininlärning, mandelbrotgenerator och liknande)

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Ozzed:

Trams. Dr. Lisa Su har ju sagt att Big Navi kommer. Jag har inte hör Bob Swahn yppa ett ord om 64-kärniga Xeons.

Jo Big navi kan nog komma. Mer BIG problems då.
De vore ju bra om dom kom i ordning med de GPU utbud dom har idag med stora instabilitetsproblem och drivrutins problem.
Lite Åsa-Nisses verkstad känns det som.

Permalänk
Medlem
Skrivet av Yoshman:

Så här långt håller jag med till 100 %, HEDT är, och har alltid varit, rätt meningslös för svensson.

Skrivit det tidigare, ser bara en enda poäng med att skaffa Intels HEDT serie: köra saker som effektivt accelereras via AVX512 samtidigt som det inte finns bättre alternativ i form av GPGPU (som när det finns typiskt presterar klart bättre och med bättre perf/W).

Så listan blir rätt kort, program som tuggar matriser och måste köra 64-bitars flyttal (vid 32-bitar är redan konsument GPUer överlägsna och håller man sig till Nvidia finns i princip alltid bibliotek att plugga in för att få GPGPU-stöd, t.ex. i Matlab och dess öppna motsvarighet Octave).

Specifikt för Casade Lake-X är sedan maskininlärning i form av inferens (GPUer är helt överlägsna till att träna nätverk, men CPUer är typiskt mer effektiva när man ska använda tränadenätverk, Cascade Lake har HW-accelereation för det senare). Under CES demonstrerades AI i bl.a. Photoshop på ett sätt som faktiskt verkar spara massor med tid i ett vanligt och tidskrävande moment (vi pratar om proffs så tid == pengar).

Inte mycket och finns säkert något jag missat. Är i alla fall mer än noll fall...

Den delen jag inte alls håller med om är detta: "arbetslasterna allt som oftast är sådana som skalar nära nog perfekt med fler kärnor".
Råder inget tvivel om att nya ThreadRipper är helcool teknik, men backar man ett enda steg från vad AMD demonstrerade på CES inser man: inte ens i en demo lyckades de hitta på en vettig demonstration (rendering av en allt annat än komplex scen säger: vi har en lösning på ett problem vi inte lurat ut än...).

Finns två huvudklasser av parallellism, uppgiftsparallellism och dataparallellism. Det enda som i praktiken brukar skala väldigt nära 100 % upp till nästan obegränsade antal kärnor är dataparallellism, problemet är att CPUer är med ytterst få undantag chanslösa mot GPUer, FPGAer och liknande där (high-end GPUer har ju tusentals "kärnor").

Uppgiftsparallellism ställer i princip alltid till det för GPUer, så där finns absolut en säkrad framtid för CPUer. Saker som hittas här är kompilering, relationsdatabaser, egentligen alla former av client/server system där man har väldigt många samtida klienter, vissa moment i videoredigering verkar höra hit, etc.

Varför demonterades inte AMD någon av dessa utan man valde ett helt dataparallellt problem (som en modern GPU fixar snabbare)? Därför att fallen ovan skalar inte linjärt med CPU-kärnor om man håller sig till system som inte kräver massiv mängd RAM (moderna servers kan ta TB med RAM och RAM-kapacitet är ändå en av huvudflaskhalsarna idag, AMD/Intel HEDT maxar på 256 GB RAM!). Att det går att öka skalningen med kärnor genom att ge sig på större problem är välkänt, det är känt som Gustafson's lag (problemet man redan nu har i datacenter är ju att systemen inte kan ta tillräckligt med RAM).

Så fort man inte har nog med RAM för allt hålla precis allt där blir problemet I/O-begränsat och skalar knappt alls med CPU-kärnor

Videoredigering har nämnts. Kan inte speciellt mycket om det, men kan läsa innantill i de tester som t.ex. Puget Systems gör. Ser väldigt mycket ut som den här typen av program skalar rätt väl till 12-16 kärnor, men sen planar det ut väldigt mycket (viss skalning finns förbi även 16 kärnor, men är allt annat än linjärt). 3950X ligger inte speciellt långt efter 3970X i deras tester.

Så stora frågan är faktiskt: vilka program/användarscenarion finns egentligen, när man plockat bort det som redan idag utförs mer effektivt med GPGPU, som skalar nära nog linjärt med CPU-kärnor?

Skulle hävda att AMD gjort något revolutionerande, men inte med TR utan med 3900X/3950X. HEDT var en nisch redan tidigare, med CPUer som 3950X har HEDT blivit inknuffat i en extremt smal nisch, framförallt givet att GPGPU (till slut) faktiskt börjar slå igenom på allt fler områden.

Ptja,

Du har ju detta API som inte använder GPU, utan istället CPU.

https://docs.microsoft.com/en-us/azure/cognitive-services/aco...

Finns säkerligen fler om man börjar leta.

Visa signatur

3800X@PBO (4,3GHz) | Prime x370-pro | 16GB G.Skill Ripjaws V 3600Mhz @ 3600 Mhz(16-16-16-36-52) | Zotac 1080 Ti AMP Extreme | MG279Q | QPAD-1339 | Ownit 1000/1000.

Permalänk
Medlem
Skrivet av tvelander:

2 chrome sen blir det för mycket!

Är det så illa? Då får jag nog sluta surfa

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem

380w TDP?!!! Lycka till att kyla den, kylanordningen lär ju kosta lika mycket som cpun 😂

Skickades från m.sweclockers.com

Visa signatur

Ryzen 7 5800x / Fractal Design celsius s24 / asus rog crosshair 7 hero wifi / 32gb g.skill 3600mhz cl16 trident Z neo C / MSI Radeon RX5700XT Gaming X / samsung 970 EVO Plus 500gb nvme / Western Digital blue 500gb ssd.

Permalänk
Medlem

Svar på en två år gammal produkt. Intel är verkligen illa ute. Påminner om AMD och Nvidia där AMD också alltid är sena numera.

Skickades från m.sweclockers.com

Visa signatur

AMD RYZEN 5 5600X | RTX 3060Ti | MSI B450 GAMING PRO CARBON AC

I ett tidigare liv:
AMD 2600X | AMD 8350 | AMD Phenom II X2 555 Black edition | AMD Athlon 64 3700+ | Intel® Pentium® II | Intel® 486DX2-66

Permalänk
Viking
Skrivet av Nivity:

Ungefär som AMD gjort med Nvidia, de har gett upp att tävla i högre segment för de får stryk när de försöker

Skrivet av Nivity:

Ja snacka är enkelt, vi har ju sett hur det gått för AMD senaste åren med deras fiasko GPUer

Jag hoppas de kan lansera ett kort äntligen som kan tävla med Nvidia då det kanske kan pressa priserna.

https://www.youtube.com/watch?v=aBIrEZHju-E&t

Visa signatur

RTX 3080 Gaming X Trio | Ryzen 7 5800X | TridentZ Neo 32GB @3600MHz CL16 | Asus X470-F ROG Strix | Lian Li PC-O11 Dynamic Svart | NZXT Kraken Z73 | 9x Phanteks T30 | Xiaomi Mi 34" 3440x1440p 144Hz

Permalänk
Medlem

Ojdå, Intel jämnar ut fighten med amd! 22 vs 64

Permalänk
Inaktiv
Skrivet av tvelander:

Typ enorma mängder mer cpurna kan dra mot 900W + på ln2 liksom

Skickades från m.sweclockers.com

Vanliga moderkort klarar knappast 380w på processorn. Gäller ju att ha 3stk extra 8pin strömtillförsel kontakter till moderkortet enligt konstens regler. Hur många har det?

Permalänk
Medlem
Skrivet av Insanyrd:

380w TDP?!!! Lycka till att kyla den, kylanordningen lär ju kosta lika mycket som cpun 😂

Skickades från m.sweclockers.com

Kom att tänka på denna 😂 28kärnor 5ghz som denna fast 22 då 😁

Permalänk
Master of Overkill
Skrivet av anon56869:

Vanliga moderkort klarar knappast 380w på processorn. Gäller ju att ha 3stk extra 8pin strömtillförsel kontakter till moderkortet enligt konstens regler. Hur många har det?

Nop det är spec bara, dom klarar mycket mer.
Så nej det du säger stämmer inte

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Inaktiv
Skrivet av Daemon85:

Ojdå, Intel jämnar ut fighten med amd! 22 vs 64

@Daemon85

Det är Amds 24 kärniga de jämnar ut fighten med om du missade detta.

Permalänk
Medlem

Är inte detta typ 100% fake?

Som jag förstått det toppar HCC-die 18 kärnor, och för att gå högre behöver de byta till XCC-die som går upp till 28 kärnor. Problemet är att XCC kräver LGA3647 och det är ju inte X299.

Jag ser det som att det är exakt 0% chans att Intel helt plötsligt har jobbat om arkitekturen för sina plattor. Det är något man gör när man lanserar en helt ny arkitektur, och inte version 7 av Skylake.

Visa signatur

Fractal Define 7, Aorus X570 Xtreme, Ryzen 5950X, Fractal Celsius+ S36, 64GB TridentZ Neo CL14/3600 RAM, MSI RTX 3090 Suprim X, 5TB NVMe SSD + 12TB SATA SSD + 64TB Seagate IronWolf Pro HD, Fractal Ion+ 860W Platinum, LG 32GP850 + LG 42C2 OLED

Permalänk
Medlem
Skrivet av ClintBeastwood:

Hur snabbt kommer man kunna surfa med den här? Det tycker jag känns mest intressant! Hur många webbläsare kommer man kunna ha uppe om man vill multitaska t.ex?

Helt ointressant. De intressanta är dock hur många Exceldokument och hur många email man kan svara på samtidigt med denna processor. Du vet... "real scenarios"?

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem

380 Watt??!

Permalänk
Inaktiv
Skrivet av tvelander:

Nop det är spec bara, dom klarar mycket mer.
Så nej det du säger stämmer inte

Det beror säkerligen på.

Hade en AMD 8350 som är ganska törstig som satt på ett moderkort med endast 1stk 4pin extra strömanslutning.
Satte sedan in 2stk RX480 (som är kända för att pressa PCI spårets på sin maxgräns 75w).

Det gick sådär, kraschade när det blev för hög powerdraw så fick hålla låg belastning på processorn när jag körde mining med grafikkorten.

Kanske värt att nämna att det inte var PSU eftersom det inte var några problem att lägga till grafikkort via PCI extenders.

Permalänk
Datavetare
Skrivet av Skrutto:

Ptja,

Du har ju detta API som inte använder GPU, utan istället CPU.

https://docs.microsoft.com/en-us/azure/cognitive-services/aco...

Finns säkerligen fler om man börjar leta.

Att man väljer att köra något på CPU är ju inte bevis på att det handlar om ett fall som inte skulle vara mer effektivt att köra på t.ex. GPGPU, FPGA eller liknande.

Utgår från att du läst informationen du länkar till. Vad som beskrivs där är att algoritmen i fråga är av "DSP-typ" och att den är "embarrassingly parallel". Båda dessa rent ut sagt skriker: perfekt match för GPGPU!!!

I det här fallet var den verkligen så embarrassingly parallel att man specifikt pekar på att en och samma körning kan utan problem köras på helt separat HW (d.v.s. flera CPU-sockets, flera GPUer om man fixade GPGPU men även kluster skulle ge i princip 100 % effektivitet).

Då ursprungsfrågan var "vilka applikationer finns där det är fördel att ha en CPU med väldigt många kärnor" är detta inte ett superbra exempel då ett kluster i praktiken alltid är billigare och mer effektivt förutsatt att problemet i fråga kan effektivt köras på ett kluster.

Den stora fördelen med att, i alla fall initialt, utveckla saker på CPU är att CPUer är betydligt flexiblare och framförallt mer tillgängliga än de andra alternativen. Är därför helt vettigt att skriva v1.0 av saker för CPU. Efter det kan man analysera vad primära flaskhalsen är, om den visar sig lämpa sig för SIMD på CPU, GPGPU eller FPGA fixar man till det i senare versioner.

Rendering är ju ett typexempel på något som varit mer effektivt på GPGPU rätt länge (även innan RTX-serien). Har bara tagit en stund att designa om programvara. Det RTX-serien primärt ändrade var att GPUer nu blev så brutal mycket bättre på just detta att t.ex. Blender (där RTX-stödet (OptiX) inte lämnat beta än, finns professionella program med betydligt mognare programvara för OptiX) visar att 2060 (d.v.s. instegsmodellen för RTX) presterar i nivå med 3970X i de scener som brukar användas för benchmarks.

Gissningsvis ser inte "Project Acoustics" den utväxlingen (men beror på exakt hur algoritmen ser ut, "DSP" algoritmer är något som allt mer körs med CUDA)

"The big advantage is that data is passed directly from the digitiser to the GPU where high-speed parallel processing is possible using the GPU board’s up to 5,000 processing cores,” said the firm. “It becomes even more important when signals are being digitised at high-speeds such as 50Msample/s, 500Msample/s or even 5Gsample/s.”

Givet att kommenterar är till en artikel om en CPU med AVX512 stöd ska även nämnas att precis som AI alltid är "dataparallellt" vare sig man gör träning eller inferens finns det skillnader i andra dimensioner. Båda kan göras med CPU (multicore), SIMD (SSE/AVX/AVX512) och GPGPU. Första alternativet är aldrig optimalt i detta fall, GPGPU är klart mest optimalt för träning men för inferens är faktiskt SIMD typiskt mer optimalt (framförallt om man har AVX512_VNNI, vilket är en av nyheterna i Cascade Lake X)

Så är möjligt att "Project Acoustics" är mer lämpat för SIMD på CPU än GPGPU (krävs detaljerad kunskap om algoritmen för att säga detta). Notera att utöver att använda dessa två går det ju att också utnyttja det faktum att algoritmen uppenbarligen även kan köras i kluster.

Sist, men i detta fall kan det vara nog så viktigt, verkar ju användning av denna teknik vara "gratis". Sättet Microsoft tar betalt är att man kommer behöva köpa tid i Azure. Då CPU-tid i "molnet" är linjärt kopplat till prislapp finns tyvärr ett incitament här för Microsoft att inte överanstränga sig allt för mycket att optimera den delen...

Skrivet av osgorth:

Är inte detta typ 100% fake?

Som jag förstått det toppar HCC-die 18 kärnor, och för att gå högre behöver de byta till XCC-die som går upp till 28 kärnor. Problemet är att XCC kräver LGA3647 och det är ju inte X299.

Jag ser det som att det är exakt 0% chans att Intel helt plötsligt har jobbat om arkitekturen för sina plattor. Det är något man gör när man lanserar en helt ny arkitektur, och inte version 7 av Skylake.

Finns definitivt en klar chans/risk att denna CPU är fake.

Men LGA3647 vs LGA2066 är överhuvudtaget inget bevis för detta.

Samma LCC och HCC kretsar finns både för LGA3647 och LGA2066, så designen stödjer båda.

Skillnaden mellan dessa två sockets är att endast LGA3647 har stöd för

  • Optane DIMM

  • 6 kanalers RAM (LGA2066 ger 4-kanaler)

  • Ultra Path Interconnect (så LGA2066 stödjer bara single-socket medan LGA3647 stödjer upp till 8 sockets)

Ingen av finesserna ovan är något jag tror Intel är intresserade att erbjuda på sin HEDT-plattform, framförallt inte nu när de måste prispressa den för att det ska finnas någon poäng. Men finns absolut ingen teknisk orsak varför även XCC, likt HCC/LCC, också kan erbjudas på LGA2088.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Master of Overkill
Skrivet av anon56869:

Det beror säkerligen på.

Hade en AMD 8350 som är ganska törstig som satt på ett moderkort med endast 1stk 4pin extra strömanslutning.
Satte sedan in 2stk RX480 (som är kända för att pressa PCI spårets på sin maxgräns 75w).

Det gick sådär, kraschade när det blev för hög powerdraw så fick hålla låg belastning på processorn när jag körde mining med grafikkorten.

Kanske värt att nämna att det inte var PSU eftersom det inte var några problem att lägga till grafikkort via PCI extenders.

Men då satt du också på låg budget moderkort så inget man riktigt försöker, lite som jag skulle sitta köra 2x Titan RTX på ett Z390 Prime och föröska få CPUn gå i 5.4GHz på 1200kr bräda.

PCI standarden inga problem dra långt över dom specsen på 150W 8 pin etc.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem
Skrivet av tvelander:

Nop det är spec bara, dom klarar mycket mer.
Så nej det du säger stämmer inte

Hur mycket klarar dem?

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem

@Yoshman: Toppen, tack! Nu lärde jag mig nåt igen, trevligt.

Det låter ju som att det är fullt möjligt att driva en XCC-die på 2066-sockeln, då. Då kan man ju fundera över varför de väljer 22c istället för en full die med 28, med tanke på hur långt efter Threadripper de redan är. Men det är väl engineering samples och alldeles för tidigt, så det kanske kommer mer sen.

Däremot kan man kanske fundera över hur bra det kommer bli med 4-kanalersminne med så många kärnor, och med betydligt mindre caches än AMD har. Kanske finns en risk att kärnorna svälter..? Nå, vi får väl se om de faktiskt dyker upp under året.

Visa signatur

Fractal Define 7, Aorus X570 Xtreme, Ryzen 5950X, Fractal Celsius+ S36, 64GB TridentZ Neo CL14/3600 RAM, MSI RTX 3090 Suprim X, 5TB NVMe SSD + 12TB SATA SSD + 64TB Seagate IronWolf Pro HD, Fractal Ion+ 860W Platinum, LG 32GP850 + LG 42C2 OLED

Permalänk
Master of Overkill
Skrivet av kelthar:

Hur mycket klarar dem?

Vet inte riktigt men kollade på kinpin forum om LN2 överklock och han visa SR-3 DARK LGA 3467 när dom körde 28 Core i 5.5GHz på 2x 8 pin och 1x 24 pin drog över 1200W

Men det är bra mycket över 150W.

Får kolla upp exakt senare

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem
Skrivet av osgorth:

Är inte detta typ 100% fake?

Som jag förstått det toppar HCC-die 18 kärnor, och för att gå högre behöver de byta till XCC-die som går upp till 28 kärnor. Problemet är att XCC kräver LGA3647 och det är ju inte X299.

Jag ser det som att det är exakt 0% chans att Intel helt plötsligt har jobbat om arkitekturen för sina plattor. Det är något man gör när man lanserar en helt ny arkitektur, och inte version 7 av Skylake.

Ptja Skylakes plattor för konsument började med endast 4 kärnor, för att sen gå till en variant med 6 och till slut 8, varav den sista inte låg i någon roadmap förrän de behövde besvara AMD vad jag minns.

Låter ändå rimligt att de kan uppnå 22 kärnor att rymma i LGA 2066 och att de motiverar utvecklingsbudgeten med att det tillfredställer enterprise som ofta kör mjukvara som endast är certad för Intel än så länge. (Och så låter de trickla ner detta till en i9:a för liksom why not..)

380W TDP låter mest som engineering-sample utspottat värde. 18-kärniga är ju på mindre än hälften så.

Visa signatur

i9-10980XE ~4.6GHz | 128GB DDR4-3600 | ASUS WS X299 PRO | RTX 4070 Super, Founders Edition
i7-7820X 4.8GHz | 64GB DDR4-3200 | ASUS WS X299 PRO | RTX 3080, Founders Edition

Permalänk
Inaktiv
Skrivet av tvelander:

Men då satt du också på låg budget moderkort så inget man riktigt försöker, lite som jag skulle sitta köra 2x Titan RTX på ett Z390 Prime och föröska få CPUn gå i 5.4GHz på 1200kr bräda.

PCI standarden inga problem dra långt över dom specsen på 150W 8 pin etc.

jo jo men hade ju bara ett 680gtx från början i den. Men poängen var ju att det började strula för mitt moderkort redan under 300w totallast via moderkortet.

Finns säkert flera som inte har några problem med 500w+ men man bör vara medveten om att även ett moderkort med dubbla 2pin extra strömtillförselkontakter kan få problem om man har otur.

Sen så ställer jag mig väldigt tveksam till om den verkliga produkten faktiskt har 380w TDP, låter väldigt osannolikt.

Permalänk
Medlem

För er som vill veta mer om hur man ordnar parallellism i hård- och mjukvara kan jag rekommendera den eminenta artikelserien Multiprocessing at a Glance.

Permalänk
Medlem