Vill du vara del av diskussionerna i forumet, ställa frågor eller hjälpa andra? Registrera dig här!

Intel kontrar Threadripper med 22 kärnor på Cascade Lake-X

Trädvy Permalänk
Medlem
Plats
Youtube
Registrerad
Okt 2009
Skrivet av Nivity:

Ja snacka är enkelt, vi har ju sett hur det gått för AMD senaste åren med deras fiasko GPUer

Jag hoppas de kan lansera ett kort äntligen som kan tävla med Nvidia då det kanske kan pressa priserna.

Nu är han ju säkerligen inte ensamt ansvarig, men Raja Koduri har slutat på AMD.
Han jobbar ju numera hos Intel och vad jag har förstått ska Intels arkitektur vara "alla kretsars fader".
https://www.nordichardware.se/nyheter/intel-xe-grafikkrets.ht...
En arkitektur som ska klara allt.

Minns jag inte fel så var styrelsen på AMD inte överens med Koduri om inriktningen på Vega eller Navi, minns
inte vilken av dem. Navi verkar ju prestera betydligt bättre i spel än Vega gör.
Vega 64 presterar sämre än 5700XT, trots fler beräkningsenheter. Till viss del kan man skylla på frekvens, men det är inte enbart det som styr. 5700XT är nära Vega VII i prestanda. Navi har potential.

Ryzen 1800x,32GB@2400MHz, Vega56
Ford Kuga 2014 @150
Shirimasen

Trädvy Permalänk
Datavetare
Plats
Stockholm
Registrerad
Jun 2011
Skrivet av cyklonen:

GPGPU är kanske för minnesbegränsat?

Pascal och senare samt Vega och senare (helt övertygad om att Xe kommer ha stödet från v1.0) kan mappa in CPU-ram som sitt eget och i det läget göra VRAM till en väldigt stor cache.

Tar man t.ex. rendering räcker det då att en enda "tile" får plats i VRAM för att prestanda ska vara precis där man förväntar sig.

Skrivet av cyklonen:

Men sen finns det kanske fall där flera oberoende processer kan köras samtidigt, som på en mer fåkärnad processor skulle behöva köras efter varandra och ta längre totaltid?

Markerade är idealfallet för uppgiftsparallellism. Det GPUer inte fixar är att de olika processerna gör helt olika saker (kör olika instruktioner), det är fallet där multicore-CPUer har, och lär komma att ha, sin givna plats.

I dataparallella fall är data olika för alla kärnor, men alla kärnor följer samma "recept" (typexempel här är rendering, matrisoperationer, maskininlärning, mandelbrotgenerator och liknande)

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Trädvy Permalänk
Medlem
Registrerad
Jan 2019
Skrivet av Ozzed:

Trams. Dr. Lisa Su har ju sagt att Big Navi kommer. Jag har inte hör Bob Swahn yppa ett ord om 64-kärniga Xeons.

Jo Big navi kan nog komma. Mer BIG problems då.
De vore ju bra om dom kom i ordning med de GPU utbud dom har idag med stora instabilitetsproblem och drivrutins problem.
Lite Åsa-Nisses verkstad känns det som.

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Jun 2016
Skrivet av Yoshman:

Så här långt håller jag med till 100 %, HEDT är, och har alltid varit, rätt meningslös för svensson.

Skrivit det tidigare, ser bara en enda poäng med att skaffa Intels HEDT serie: köra saker som effektivt accelereras via AVX512 samtidigt som det inte finns bättre alternativ i form av GPGPU (som när det finns typiskt presterar klart bättre och med bättre perf/W).

Så listan blir rätt kort, program som tuggar matriser och måste köra 64-bitars flyttal (vid 32-bitar är redan konsument GPUer överlägsna och håller man sig till Nvidia finns i princip alltid bibliotek att plugga in för att få GPGPU-stöd, t.ex. i Matlab och dess öppna motsvarighet Octave).

Specifikt för Casade Lake-X är sedan maskininlärning i form av inferens (GPUer är helt överlägsna till att träna nätverk, men CPUer är typiskt mer effektiva när man ska använda tränadenätverk, Cascade Lake har HW-accelereation för det senare). Under CES demonstrerades AI i bl.a. Photoshop på ett sätt som faktiskt verkar spara massor med tid i ett vanligt och tidskrävande moment (vi pratar om proffs så tid == pengar).

Inte mycket och finns säkert något jag missat. Är i alla fall mer än noll fall...

Den delen jag inte alls håller med om är detta: "arbetslasterna allt som oftast är sådana som skalar nära nog perfekt med fler kärnor".
Råder inget tvivel om att nya ThreadRipper är helcool teknik, men backar man ett enda steg från vad AMD demonstrerade på CES inser man: inte ens i en demo lyckades de hitta på en vettig demonstration (rendering av en allt annat än komplex scen säger: vi har en lösning på ett problem vi inte lurat ut än...).

Finns två huvudklasser av parallellism, uppgiftsparallellism och dataparallellism. Det enda som i praktiken brukar skala väldigt nära 100 % upp till nästan obegränsade antal kärnor är dataparallellism, problemet är att CPUer är med ytterst få undantag chanslösa mot GPUer, FPGAer och liknande där (high-end GPUer har ju tusentals "kärnor").

Uppgiftsparallellism ställer i princip alltid till det för GPUer, så där finns absolut en säkrad framtid för CPUer. Saker som hittas här är kompilering, relationsdatabaser, egentligen alla former av client/server system där man har väldigt många samtida klienter, vissa moment i videoredigering verkar höra hit, etc.

Varför demonterades inte AMD någon av dessa utan man valde ett helt dataparallellt problem (som en modern GPU fixar snabbare)? Därför att fallen ovan skalar inte linjärt med CPU-kärnor om man håller sig till system som inte kräver massiv mängd RAM (moderna servers kan ta TB med RAM och RAM-kapacitet är ändå en av huvudflaskhalsarna idag, AMD/Intel HEDT maxar på 256 GB RAM!). Att det går att öka skalningen med kärnor genom att ge sig på större problem är välkänt, det är känt som Gustafson's lag (problemet man redan nu har i datacenter är ju att systemen inte kan ta tillräckligt med RAM).

Så fort man inte har nog med RAM för allt hålla precis allt där blir problemet I/O-begränsat och skalar knappt alls med CPU-kärnor

Videoredigering har nämnts. Kan inte speciellt mycket om det, men kan läsa innantill i de tester som t.ex. Puget Systems gör. Ser väldigt mycket ut som den här typen av program skalar rätt väl till 12-16 kärnor, men sen planar det ut väldigt mycket (viss skalning finns förbi även 16 kärnor, men är allt annat än linjärt). 3950X ligger inte speciellt långt efter 3970X i deras tester.

Så stora frågan är faktiskt: vilka program/användarscenarion finns egentligen, när man plockat bort det som redan idag utförs mer effektivt med GPGPU, som skalar nära nog linjärt med CPU-kärnor?

Skulle hävda att AMD gjort något revolutionerande, men inte med TR utan med 3900X/3950X. HEDT var en nisch redan tidigare, med CPUer som 3950X har HEDT blivit inknuffat i en extremt smal nisch, framförallt givet att GPGPU (till slut) faktiskt börjar slå igenom på allt fler områden.

Ptja,

Du har ju detta API som inte använder GPU, utan istället CPU.

https://docs.microsoft.com/en-us/azure/cognitive-services/aco...

Finns säkerligen fler om man börjar leta.

3800X@PBO (4,3GHz) | Prime x370-pro | 16GB G.Skill Ripjaws V 3600Mhz @ 3600 Mhz(16-16-16-36-52) | Zotac 1080 Ti AMP Extreme | MG279Q | QPAD-1339 | Ownit 1000/1000.

Trädvy Permalänk
Medlem
Registrerad
Jul 2011
Skrivet av tvelander:

2 chrome sen blir det för mycket!

Är det så illa? Då får jag nog sluta surfa

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Trädvy Permalänk
Medlem
Plats
Värmland
Registrerad
Feb 2019

380w TDP?!!! Lycka till att kyla den, kylanordningen lär ju kosta lika mycket som cpun 😂

Skickades från m.sweclockers.com

Ryzen 7 3800x / Fractal Design celsius s24 / asus rog crosshair 7 hero wifi / 32gb g.skill 3600mhz cl16 trident Z neo C / MSI Radeon RX5700XT Gaming X / samsung 970 EVO Plus 500gb nvme / Western Digital blue 500gb ssd.

Trädvy Permalänk
Medlem
Plats
Huskvarna
Registrerad
Maj 2012

Svar på en två år gammal produkt. Intel är verkligen illa ute. Påminner om AMD och Nvidia där AMD också alltid är sena numera.

Skickades från m.sweclockers.com

AMD RYZEN 5 2600X | ASUS ROG STRIX 2070 ADVANCED | MSI B450 GAMING PRO CARBON AC

I ett tidigare liv:
AMD 8350 | AMD Phenom II X2 555 Black edition | AMD Athlon 64 3700+ | Intel® Pentium® II | Intel® 486DX2-66

Trädvy Permalänk
Medlem
Registrerad
Dec 2017
Skrivet av Nivity:

Ungefär som AMD gjort med Nvidia, de har gett upp att tävla i högre segment för de får stryk när de försöker

Skrivet av Nivity:

Ja snacka är enkelt, vi har ju sett hur det gått för AMD senaste åren med deras fiasko GPUer

Jag hoppas de kan lansera ett kort äntligen som kan tävla med Nvidia då det kanske kan pressa priserna.

https://www.youtube.com/watch?v=aBIrEZHju-E&t

Regnbågsriddaren: Asus RTX 2070 SUPER ROG Strix OC | Ryzen 5 2600X | Corsair Vengeance RGB 2x8GB 2666MHz | Asus X470-F ROG Strix | Crystal 460X + RGB-fläktar

Trädvy Permalänk
Medlem
Plats
Örebro
Registrerad
Apr 2005

Ojdå, Intel jämnar ut fighten med amd! 22 vs 64

Trädvy Permalänk
Medlem
Registrerad
Jan 2005
Skrivet av tvelander:

Typ enorma mängder mer cpurna kan dra mot 900W + på ln2 liksom

Skickades från m.sweclockers.com

Vanliga moderkort klarar knappast 380w på processorn. Gäller ju att ha 3stk extra 8pin strömtillförsel kontakter till moderkortet enligt konstens regler. Hur många har det?

Trädvy Permalänk
Medlem
Plats
Ghost Town
Registrerad
Dec 2014
Skrivet av Insanyrd:

380w TDP?!!! Lycka till att kyla den, kylanordningen lär ju kosta lika mycket som cpun 😂

Skickades från m.sweclockers.com

Kom att tänka på denna 😂 28kärnor 5ghz som denna fast 22 då 😁

Corsair 800D | MB: Asus Saberthooth X58 | CPU: Intel Core i7 920| Kylare:FractalDesign CelsiusS36| RAM:Corsair Vengeance 24GB 1600Mhz | GPU: Asus Strix GTX 1080Ti | PSU:Tagan BZ 800W| TGB: Logitech G11 | Mus: Logitech MX518 | Ljud: Razer thresher 7.1/Logitech z906 | Logitech G27 | MacBook Pro 13 Mid 2012

Trädvy Permalänk
Master of Overkill
Plats
Göteborg
Registrerad
Sep 2011
Skrivet av H_Bozz:

Vanliga moderkort klarar knappast 380w på processorn. Gäller ju att ha 3stk extra 8pin strömtillförsel kontakter till moderkortet enligt konstens regler. Hur många har det?

Nop det är spec bara, dom klarar mycket mer.
Så nej det du säger stämmer inte

CASE Caselabs SMA8 + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs GTX 1080 RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones GSP 670 + Audeze LCD-2 + Moon Cable Screen ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 480+480+280+360. 240+240

Trädvy Permalänk
Medlem
Registrerad
Aug 2018
Skrivet av Daemon85:

Ojdå, Intel jämnar ut fighten med amd! 22 vs 64

@Daemon85

Det är Amds 24 kärniga de jämnar ut fighten med om du missade detta.

1600X @4.3GHz 1.63V AB350N-Gaming WIFI-CF 16GB 3200MHz
https://valid.x86.fr/g5aaif

9700K @5.4GHz 1,3V MSI MPG Z390I GAMING EDGE AC (MS-7C04)
32GB 3200MHz https://valid.x86.fr/4j622i

Trädvy Permalänk
Medlem
Plats
Märsta
Registrerad
Aug 2008

Är inte detta typ 100% fake?

Som jag förstått det toppar HCC-die 18 kärnor, och för att gå högre behöver de byta till XCC-die som går upp till 28 kärnor. Problemet är att XCC kräver LGA3647 och det är ju inte X299.

Jag ser det som att det är exakt 0% chans att Intel helt plötsligt har jobbat om arkitekturen för sina plattor. Det är något man gör när man lanserar en helt ny arkitektur, och inte version 7 av Skylake.

Fractal Meshify-C, Aorus Z370 Gaming 7, i7-8700K + be Quiet! Dark Rock Pro 4, 64GB G-Skill TridentZ 3600MHz, ASUS Strix RTX 2080 Ti OC, Samsung 960 Pro 1TB NVMe + 2x Samsung 850 EVO 2TB SSD

Trädvy Permalänk
Medlem
Plats
Piteå
Registrerad
Jul 2017
Skrivet av ClintBeastwood:

Hur snabbt kommer man kunna surfa med den här? Det tycker jag känns mest intressant! Hur många webbläsare kommer man kunna ha uppe om man vill multitaska t.ex?

Helt ointressant. De intressanta är dock hur många Exceldokument och hur många email man kan svara på samtidigt med denna processor. Du vet... "real scenarios"?

NZXT H440 | Intel i7 7700K @ 5 GHz | Asus strix Z270H Gaming | 16GB Corsair DDR4 3200 mhz | EVGA RTX 2070 Black | 512 GB Samsung Pro 850 SSD | Corsair HX750 |

Trädvy Permalänk
Medlem
Registrerad
Sep 2016

380 Watt??!

Trädvy Permalänk
Medlem
Registrerad
Jan 2005
Skrivet av tvelander:

Nop det är spec bara, dom klarar mycket mer.
Så nej det du säger stämmer inte

Det beror säkerligen på.

Hade en AMD 8350 som är ganska törstig som satt på ett moderkort med endast 1stk 4pin extra strömanslutning.
Satte sedan in 2stk RX480 (som är kända för att pressa PCI spårets på sin maxgräns 75w).

Det gick sådär, kraschade när det blev för hög powerdraw så fick hålla låg belastning på processorn när jag körde mining med grafikkorten.

Kanske värt att nämna att det inte var PSU eftersom det inte var några problem att lägga till grafikkort via PCI extenders.

Trädvy Permalänk
Datavetare
Plats
Stockholm
Registrerad
Jun 2011
Skrivet av Skrutto:

Ptja,

Du har ju detta API som inte använder GPU, utan istället CPU.

https://docs.microsoft.com/en-us/azure/cognitive-services/aco...

Finns säkerligen fler om man börjar leta.

Att man väljer att köra något på CPU är ju inte bevis på att det handlar om ett fall som inte skulle vara mer effektivt att köra på t.ex. GPGPU, FPGA eller liknande.

Utgår från att du läst informationen du länkar till. Vad som beskrivs där är att algoritmen i fråga är av "DSP-typ" och att den är "embarrassingly parallel". Båda dessa rent ut sagt skriker: perfekt match för GPGPU!!!

I det här fallet var den verkligen så embarrassingly parallel att man specifikt pekar på att en och samma körning kan utan problem köras på helt separat HW (d.v.s. flera CPU-sockets, flera GPUer om man fixade GPGPU men även kluster skulle ge i princip 100 % effektivitet).

Då ursprungsfrågan var "vilka applikationer finns där det är fördel att ha en CPU med väldigt många kärnor" är detta inte ett superbra exempel då ett kluster i praktiken alltid är billigare och mer effektivt förutsatt att problemet i fråga kan effektivt köras på ett kluster.

Den stora fördelen med att, i alla fall initialt, utveckla saker på CPU är att CPUer är betydligt flexiblare och framförallt mer tillgängliga än de andra alternativen. Är därför helt vettigt att skriva v1.0 av saker för CPU. Efter det kan man analysera vad primära flaskhalsen är, om den visar sig lämpa sig för SIMD på CPU, GPGPU eller FPGA fixar man till det i senare versioner.

Rendering är ju ett typexempel på något som varit mer effektivt på GPGPU rätt länge (även innan RTX-serien). Har bara tagit en stund att designa om programvara. Det RTX-serien primärt ändrade var att GPUer nu blev så brutal mycket bättre på just detta att t.ex. Blender (där RTX-stödet (OptiX) inte lämnat beta än, finns professionella program med betydligt mognare programvara för OptiX) visar att 2060 (d.v.s. instegsmodellen för RTX) presterar i nivå med 3970X i de scener som brukar användas för benchmarks.

Gissningsvis ser inte "Project Acoustics" den utväxlingen (men beror på exakt hur algoritmen ser ut, "DSP" algoritmer är något som allt mer körs med CUDA)

"The big advantage is that data is passed directly from the digitiser to the GPU where high-speed parallel processing is possible using the GPU board’s up to 5,000 processing cores,” said the firm. “It becomes even more important when signals are being digitised at high-speeds such as 50Msample/s, 500Msample/s or even 5Gsample/s.”

Givet att kommenterar är till en artikel om en CPU med AVX512 stöd ska även nämnas att precis som AI alltid är "dataparallellt" vare sig man gör träning eller inferens finns det skillnader i andra dimensioner. Båda kan göras med CPU (multicore), SIMD (SSE/AVX/AVX512) och GPGPU. Första alternativet är aldrig optimalt i detta fall, GPGPU är klart mest optimalt för träning men för inferens är faktiskt SIMD typiskt mer optimalt (framförallt om man har AVX512_VNNI, vilket är en av nyheterna i Cascade Lake X)

Så är möjligt att "Project Acoustics" är mer lämpat för SIMD på CPU än GPGPU (krävs detaljerad kunskap om algoritmen för att säga detta). Notera att utöver att använda dessa två går det ju att också utnyttja det faktum att algoritmen uppenbarligen även kan köras i kluster.

Sist, men i detta fall kan det vara nog så viktigt, verkar ju användning av denna teknik vara "gratis". Sättet Microsoft tar betalt är att man kommer behöva köpa tid i Azure. Då CPU-tid i "molnet" är linjärt kopplat till prislapp finns tyvärr ett incitament här för Microsoft att inte överanstränga sig allt för mycket att optimera den delen...

Skrivet av osgorth:

Är inte detta typ 100% fake?

Som jag förstått det toppar HCC-die 18 kärnor, och för att gå högre behöver de byta till XCC-die som går upp till 28 kärnor. Problemet är att XCC kräver LGA3647 och det är ju inte X299.

Jag ser det som att det är exakt 0% chans att Intel helt plötsligt har jobbat om arkitekturen för sina plattor. Det är något man gör när man lanserar en helt ny arkitektur, och inte version 7 av Skylake.

Finns definitivt en klar chans/risk att denna CPU är fake.

Men LGA3647 vs LGA2066 är överhuvudtaget inget bevis för detta.

Samma LCC och HCC kretsar finns både för LGA3647 och LGA2066, så designen stödjer båda.

Skillnaden mellan dessa två sockets är att endast LGA3647 har stöd för

  • Optane DIMM

  • 6 kanalers RAM (LGA2066 ger 4-kanaler)

  • Ultra Path Interconnect (så LGA2066 stödjer bara single-socket medan LGA3647 stödjer upp till 8 sockets)

Ingen av finesserna ovan är något jag tror Intel är intresserade att erbjuda på sin HEDT-plattform, framförallt inte nu när de måste prispressa den för att det ska finnas någon poäng. Men finns absolut ingen teknisk orsak varför även XCC, likt HCC/LCC, också kan erbjudas på LGA2088.

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Trädvy Permalänk
Master of Overkill
Plats
Göteborg
Registrerad
Sep 2011
Skrivet av H_Bozz:

Det beror säkerligen på.

Hade en AMD 8350 som är ganska törstig som satt på ett moderkort med endast 1stk 4pin extra strömanslutning.
Satte sedan in 2stk RX480 (som är kända för att pressa PCI spårets på sin maxgräns 75w).

Det gick sådär, kraschade när det blev för hög powerdraw så fick hålla låg belastning på processorn när jag körde mining med grafikkorten.

Kanske värt att nämna att det inte var PSU eftersom det inte var några problem att lägga till grafikkort via PCI extenders.

Men då satt du också på låg budget moderkort så inget man riktigt försöker, lite som jag skulle sitta köra 2x Titan RTX på ett Z390 Prime och föröska få CPUn gå i 5.4GHz på 1200kr bräda.

PCI standarden inga problem dra långt över dom specsen på 150W 8 pin etc.

CASE Caselabs SMA8 + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs GTX 1080 RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones GSP 670 + Audeze LCD-2 + Moon Cable Screen ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 480+480+280+360. 240+240

Trädvy Permalänk
Medlem
Plats
.:: :: oVERdOZe bbS :: ::.
Registrerad
Aug 2004
Skrivet av tvelander:

Nop det är spec bara, dom klarar mycket mer.
Så nej det du säger stämmer inte

Hur mycket klarar dem?

MOS8500 > 68000 > 8088 > 286 > 386 > 486 > PMMX > ???? > 3570K > 2700X > 3900X. Fan vad jag älskar datorer!

Hoppas att ARM/RISC kommer med nån sexig skit supersnart!

Trädvy Permalänk
Medlem
Plats
Märsta
Registrerad
Aug 2008

@Yoshman: Toppen, tack! Nu lärde jag mig nåt igen, trevligt.

Det låter ju som att det är fullt möjligt att driva en XCC-die på 2066-sockeln, då. Då kan man ju fundera över varför de väljer 22c istället för en full die med 28, med tanke på hur långt efter Threadripper de redan är. Men det är väl engineering samples och alldeles för tidigt, så det kanske kommer mer sen.

Däremot kan man kanske fundera över hur bra det kommer bli med 4-kanalersminne med så många kärnor, och med betydligt mindre caches än AMD har. Kanske finns en risk att kärnorna svälter..? Nå, vi får väl se om de faktiskt dyker upp under året.

Fractal Meshify-C, Aorus Z370 Gaming 7, i7-8700K + be Quiet! Dark Rock Pro 4, 64GB G-Skill TridentZ 3600MHz, ASUS Strix RTX 2080 Ti OC, Samsung 960 Pro 1TB NVMe + 2x Samsung 850 EVO 2TB SSD

Trädvy Permalänk
Master of Overkill
Plats
Göteborg
Registrerad
Sep 2011
Skrivet av kelthar:

Hur mycket klarar dem?

Vet inte riktigt men kollade på kinpin forum om LN2 överklock och han visa SR-3 DARK LGA 3467 när dom körde 28 Core i 5.5GHz på 2x 8 pin och 1x 24 pin drog över 1200W

Men det är bra mycket över 150W.

Får kolla upp exakt senare

CASE Caselabs SMA8 + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs GTX 1080 RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones GSP 670 + Audeze LCD-2 + Moon Cable Screen ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 480+480+280+360. 240+240

Trädvy Permalänk
Medlem
Plats
Sollentuna
Registrerad
Maj 2007
Skrivet av osgorth:

Är inte detta typ 100% fake?

Som jag förstått det toppar HCC-die 18 kärnor, och för att gå högre behöver de byta till XCC-die som går upp till 28 kärnor. Problemet är att XCC kräver LGA3647 och det är ju inte X299.

Jag ser det som att det är exakt 0% chans att Intel helt plötsligt har jobbat om arkitekturen för sina plattor. Det är något man gör när man lanserar en helt ny arkitektur, och inte version 7 av Skylake.

Ptja Skylakes plattor för konsument började med endast 4 kärnor, för att sen gå till en variant med 6 och till slut 8, varav den sista inte låg i någon roadmap förrän de behövde besvara AMD vad jag minns.

Låter ändå rimligt att de kan uppnå 22 kärnor att rymma i LGA 2066 och att de motiverar utvecklingsbudgeten med att det tillfredställer enterprise som ofta kör mjukvara som endast är certad för Intel än så länge. (Och så låter de trickla ner detta till en i9:a för liksom why not..)

380W TDP låter mest som engineering-sample utspottat värde. 18-kärniga är ju på mindre än hälften så.

i9-7920X Delid | 64GB DDR4 | ASUS WS X299 PRO | GTX 1080 Ti | Define C | 5x 500GB SSD

Trädvy Permalänk
Medlem
Registrerad
Jan 2005
Skrivet av tvelander:

Men då satt du också på låg budget moderkort så inget man riktigt försöker, lite som jag skulle sitta köra 2x Titan RTX på ett Z390 Prime och föröska få CPUn gå i 5.4GHz på 1200kr bräda.

PCI standarden inga problem dra långt över dom specsen på 150W 8 pin etc.

jo jo men hade ju bara ett 680gtx från början i den. Men poängen var ju att det började strula för mitt moderkort redan under 300w totallast via moderkortet.

Finns säkert flera som inte har några problem med 500w+ men man bör vara medveten om att även ett moderkort med dubbla 2pin extra strömtillförselkontakter kan få problem om man har otur.

Sen så ställer jag mig väldigt tveksam till om den verkliga produkten faktiskt har 380w TDP, låter väldigt osannolikt.

Trädvy Permalänk
Medlem
Plats
Sundsvall
Registrerad
Okt 2003

För er som vill veta mer om hur man ordnar parallellism i hård- och mjukvara kan jag rekommendera den eminenta artikelserien Multiprocessing at a Glance.

Trädvy Permalänk
Medlem
Plats
Singapore
Registrerad
Okt 2003