Intel Comet Lake-S får specifikationer – Hyperthreading över hela brädet

Permalänk
Medlem
Skrivet av Yoshman:

Tänk om det skulle vara normalnivån! Tycker ändå kommentarer till Intel-artiklar, är OK:ish. Intel har verkligen inte skött sina kort på ett optimalt sätt de senaste åren, negativa kommentarer ska självklart postas men försök undvika rent gnäll och rena felaktigheter.

Värst är det nog i Nvidia-artiklarna. Har vi inte hört att RTX-korten är dyra och att ray-tracing i dagens spel är värdelöst till leda nu?

Fast det är ju sant: RTX korten ÄR dyra, stödet för raytracing är väldigt sällsynt samt väldigt krävande, och Intel sitter kvar med sin uråldriga litografi en generation till osv osv... Det är ju svårt att skriva något annat, när det är sant? Ska vi låtsas vara glada istället?
Men ok, ok, man kan fokusera mer på det som faktiskt blir bättre istället! (och felaktigheter ska förstås inte spridas)
... och det är ju trevligt att de gamla jättarna Nvidia och Intel har vettig konkurrens

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk
Medlem

Så man kan inte ens köra 3000 MHz minnen med dessa CPUer???

Kan väl inte vara så?

Visa signatur

Fractal Design Define R4 | ASUS Z170-A | i7 6700K @ 4.6 GHz med CM Hyper 212 Evo
ASUS GTX 1070 Ti Cerberus Advanced | Corsair LPX Black 3000 Mhz 16 GB CL 14
Samsung m2 970 Evo 1 TB | EVGA Supernova G2 750W | Huawei Mate 20 X

Permalänk
Medlem
Skrivet av Dizzö:

Så man kan inte ens köra 3000 MHz minnen med dessa CPUer???

Kan väl inte vara så?

Klart man kan!

Precis på samma sätt som det går att köra 4000+ med nuvarande generation, trots "2666" som formellt stöd.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem

@cyklonen: om det är så varför ens finns 2666 MHz med som högsta stöd? Varför inte högre siffra? Vad är anledningen? Har AMD också så lågt officiellt stöd?

Visa signatur

Fractal Design Define R4 | ASUS Z170-A | i7 6700K @ 4.6 GHz med CM Hyper 212 Evo
ASUS GTX 1070 Ti Cerberus Advanced | Corsair LPX Black 3000 Mhz 16 GB CL 14
Samsung m2 970 Evo 1 TB | EVGA Supernova G2 750W | Huawei Mate 20 X

Permalänk
Medlem
Skrivet av Dizzö:

@cyklonen: om det är så varför ens finns 2666 MHz med som högsta stöd? Varför inte högre siffra? Vad är anledningen? Har AMD också så lågt officiellt stöd?

Bra fråga. Ställ den till Intel!

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem
Skrivet av Dizzö:

@cyklonen: om det är så varför ens finns 2666 MHz med som högsta stöd? Varför inte högre siffra? Vad är anledningen? Har AMD också så lågt officiellt stöd?

Är väl pga att högre än så räknas som överklockning när det kommer till ram?

Ram som är 3600 mhz är ju XMP-profil. När du precis ploppat i de så kommer kittet vara typ 2666 mzh eller så.

Skrivet av TappadBakom:

Hur kan det skilja så mycket i tdp mellan "k" och utan "k"?

Skickades från m.sweclockers.com

Förmodligen för att det finns stöd för att överklocka kärnorna. Brukar väl vara liknande mellan t.ex ryzen 3700x och ryzen 3800x där 3800x är lite mer överklockad.

Visa signatur

MB: Asus Rog B550-F WiFi | CPU: Ryzen 5, 3600
GPU: RTX 4070TiS PNY Verto | Chassi: FD Meshify 2 compact
Ram: G.skill Trident Z, 14-14-14-34, 3200 Mhz, 2x 8gb

Permalänk
Medlem
Skrivet av draanexle:

När du precis ploppat i de så kommer kittet vara typ 2666 mzh eller så.

Nej, 2133 är default.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem
Skrivet av Yoshman:

Finns verkligen samma brus på AMD artiklarna? Det är i alla fall långt mindre negativa tongångar där.
Diskussionen om Ryzen 4700U handlar primärt om artikeln, samma gäller Radeon RX 5600 XT (lite spridd gnäll fast det primärt riktat mot Nvidia).

Kommentarer till AMDs kommand APU "Renoir" är håller sig väldigt mycket till ämnet, faktiskt riktigt bra tråd intressant diskussion. Samma sak gäller Threadripper 3970X tråden, bra diskussion som håller sig till ämnet (de lilla gnäll som finns riktas primärt mot Intel)!

Men finns guldkorn även hos Intel-artiklar, kommentaren till "10 nanometer blir långlivad teknik" hade kunnat bli en riktigt shit-show. Men det mesta var faktiskt relevanta kommentarer!

Ovan är ändå exempel som få en att hoppas. Tänk om det skulle vara normalnivån! Tycker ändå kommentarer till Intel-artiklar, är OK:ish. Intel har verkligen inte skött sina kort på ett optimalt sätt de senaste åren, negativa kommentarer ska självklart postas men försök undvika rent gnäll och rena felaktigheter.

Värst är det nog i Nvidia-artiklarna. Har vi inte hört att RTX-korten är dyra och att ray-tracing i dagens spel är värdelöst till leda nu?

Tyvärr kanske det inte blir bättre framöver då GPUer tenderar vara rätt stora sett till kiselarea och, oavsett vad Intel försöker hävda, är Moores lag rätt död nu då priset per transistor börjar gå mot att vara konstant. Traditionellt har priset per areaenhet kisel varit relativt konstant -> priset per transistor ungefär halverades vid en fullnod. Här kan man ändå glädjas åt topprestanda i GPUer skalar betydligt bättre med transistorer än för CPUer, så vi kan se fram emot snabbare "värstingkort" vid de krympningar som finns kvar (men tyvärr risk för högre pris ).

Det är nog mindre just nu i AMD artiklar. Men går man tillbaks lite längre så har det varit mycket brus från Intel och Nvidia folk i artiklar om AMD produkter. Jag nämnde det i ett annat inlägg, det hänger mycket ihop med att AMD har vind i seglen.

Vi får väl se när Intel får ändan ur vagnen och släpper en CPU med lite större förbättringar, t.ex. krympt teknik eller ny arkitektur. Som det t.ex. står i den här artikeln att "Intel kommer tillbaka". Då kanske Intel fansen vaknar till liv och börjar "brusa" ordentligt i framtida AMD artiklar igen, som de gjort förut.
https://www.sweclockers.com/artikel/28679-kronika-amd-vann-ka...

Permalänk
Medlem

Jag tror likt i5 8400 var populär tidigare så lär nog den nya billigare varianten av i5:a bli väldigt populär. Och den kommer nog att kriga bra mot 3600. Nu har jag inga säljsiffor men det torde väl vara i denna prisklass den större massan shoppar. Där man får i de flesta fall fullt tillräckligt med prestanda för en relativt låg prislapp.

Skickades från m.sweclockers.com

Permalänk
Avstängd

Intressant att trots AMDs starka år och detta svala utannonserade så får Intel-fanboys här till det att det är de förstnämnda som ligger illa till nu...

Permalänk
Snusfri
Skrivet av Roger W:

Fast det är ju sant: RTX korten ÄR dyra, stödet för raytracing är väldigt sällsynt samt väldigt krävande, och Intel sitter kvar med sin uråldriga litografi en generation till osv osv... Det är ju svårt att skriva något annat, när det är sant? Ska vi låtsas vara glada istället?
Men ok, ok, man kan fokusera mer på det som faktiskt blir bättre istället! (och felaktigheter ska förstås inte spridas)
... och det är ju trevligt att de gamla jättarna Nvidia och Intel har vettig konkurrens

RTX korten är dyra, men även helt överlägsna AMD's diton.
Speciellt när det kommer rendering och även i spel.

Uråldrig litografi, du vet att dessa nm inte säger typ något alls va?
Intels 14(massa plus) är likvärdiga med det AMD kallar 7nm, fast 10nm, vet du vad det beror de på på? Jo, de räknar olika.

Så sluta sprid felaktigheter och var istället glad att vi har konkurrens.

Visa signatur

WS: i9 13900K - 128GB RAM - 6.5TB SSD - RTX 3090 24GB - LG C2 42" - W11 Pro
LAPTOP 1: Lenovo Gaming 3 - 8GB RAM - 512GB SSD - GTX 1650
LAPTOP 2: Acer Swift 3 - 8GB RAM - 512GB SSD
SERVER: i5 10400F - 64GB RAM - 44TB HDD
NALLE: Pixel 7 Pro

Permalänk
Datavetare
Skrivet av Roger W:

Fast det är ju sant: RTX korten ÄR dyra, stödet för raytracing är väldigt sällsynt samt väldigt krävande, och Intel sitter kvar med sin uråldriga litografi en generation till osv osv... Det är ju svårt att skriva något annat, när det är sant? Ska vi låtsas vara glada istället?
Men ok, ok, man kan fokusera mer på det som faktiskt blir bättre istället! (och felaktigheter ska förstås inte spridas)
... och det är ju trevligt att de gamla jättarna Nvidia och Intel har vettig konkurrens

RTX korten är inte dyrare än AMDs 7 nm kort om man jämför motsvarande prestandanivå

Tyvärr är den bistra sanningen här att Nvidia just nu leder mer på GPU-sidan än Intel någonsin gjort på CPU-sidan. När 2600K och FX-8150 stred var det i alla fall på samma nod-storlek (32 nm) och alla program som fungerade på 2600K gick i alla fall att köra på FX-8150.

På GPU-sidan har Nvidia prestandakronan trots att man är kvar på TSMC 12 nm (som egentligen är TSMC 16 nm+). CUDA är totalt dominant när GPGPU (till slut) börjar slå igenom på bred front, det samtidigt som AMD släppt OpenCL och i stället börjat pusha en egen teknik som än så länge knappt används någonstans alls. Faktiskt svår att se någon rationell anledning alls att välja AMDs GPUer över Nvidias just nu, det är alltid ett problem när någon blir så totalt dominant som Nvidia just nu är på GPU-sidan!

Hur SweC kom fram till att 5700 är ett bättre val för vinterdatorn jämfört med RTX 2060S är för mig ett mysterium!

Intel kommer har rejäl uppförsbacke på GPU-sidan, men man har faktiskt fördelen av marknadsandel. Intel GPUer står för ca 65 % av marknaden, så det finns en klar poäng för de som jobbar med GPGPU att få till stöd för Intel (framförallt på laptops då GPGPU typiskt har bättre perf/W än att göra motsvara på CPU). Men krävs ju först att man skapar något som är någorlunda tekniskt ekvivalent med CUDA (som är totalt överlägset allt annat på marknaden just nu).

Gällande ray-tracing handlar eventuellt missnöjda med totalt orealistiska förväntningar. Hur mycket användes T&L på GeForce 256 och Radeon 7200? Hur många gånger användes bump-mapping på Radeon 7200 (det var dragplåstret för den GPU)? Jämfört med dessa är RTX-korten en braksuccé då det faktiskt finns spel som använder den nya tekniken i dessa + professionella program har verkligen tagit till sig OptiX. OptiX är likt CUDA tyvärr ännu en Nvidia specifik API, gör det möjligt att använda RT-kärnorna i program som Blender och flertalet kommersiella renderingsprogram. Denna finess har ju på kort tid gjort CPUer helt irrelevanta för rendering!

Angående om man ska vara glad för att Intel har enorma problem att komma vidare efter 14 nm. Det halvfulla glaset kan lika gärna användas på AMD: Zen2 och Skylake har rätt snarlik IPC, det tog bara AMD en hel-nods försprång och en krets med ~3 gånger så mycket cache (3900X har 4,5 gånger mer cache än 9900K) och ungefär dubbelt så många transistorer för att nå dit...

I min mening helt irrelevant hur man når målet, Intel har faktiskt bara fått igång 10 nm för bärbara än. Men tittar man på bärbara ser man också att om man inom rimlig tid lyckas ta sina "Coves" till desktop är Intel tillbaka i ledarposition igen, Sunny Cove har rätt mycket bättre IPC än Zen2, det med färre transistorer/mindre yta (Intels 10 nm och TSMC 7 nm har i princip identisk densitet på ~100 MTr/mm²).

Men varför titta på det från "glaset är halvfullt" sidan? AMD gjorde det bästa av situationen, man tog sina begränsade resurser och slog till mot ett specifikt segment. Lisa verkar kunna sin Sun Tzu: Victory comes from finding opportunities in problems. Man insåg att Intel hade problem och skulle bli tvungna att prioritera. För Intel var bärbara en uppenbar prioritet över desktop då det är ~75 % av marknaden och "Client Computing Group" är fortfarande största division inom Intel.

Man kan också se Comet Lake som "glaset halvfullt", man kan också se att det är rätt mycket det bästa Intel kan göra i närtid då det gissningsvis kommer räcka för att behålla prestandakronan i spelsegmentet. Just spelsegmentet är, om jag förstått det hela rätt enda, enda området för stationära datorer som faktiskt växer. På det stora hela krymper eller i bästa fall ligger konsument PC still, men bärbara datorer äter upp allt mer av den kakan.

Kan inte påstå att Comet Lake känns speciellt spännande, men tycker ändå att Rocket Lake har en del riktigt intressanta vinklar. Tänk om det visar sig att en modern mikroarkitektur på en gammal nod tar prestandakronan, vad säger det om hur AMD/Intel borde agera på desktopsidan framöver? Bärbara och servers lär pusha mot nyare noder, den förra för de nya noder är mer energieffektiva vid lägre frekvenser och den senare för att det krävs för att få in mer finesser + går att ta betalt där.

Men mycket pekar på att framtida noder kommer ha ett lägre frekvenstak p.g.a. avsaknad av Dennard scaling, det betyder att W/mm² tyvärr ökar vid varje krympning -> kylningen av hot-spots, inte total effekt, blir allt mer en flaskhals.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av THB:

RTX korten är dyra, men även helt överlägsna AMD's diton.
Speciellt när det kommer rendering och även i spel.

Visst, de snabbaste RTX korten är snabbare än något AMD kan skaka fram, och det är förstås en anledning till att Nvidia kan hålla höga priser.
Den andra är att RTX-kretsarna är enorma skapelser som kostar massa pengar att producera, för hårdvara som till stor del ligger vilande just nu.
På grafikkortsfronten tycker jag AMD inte utnyttjar detta prisgap speciellt bra... Om de skulle priskonkurrera hårdare så skulle de nog kunna ta påtagliga marknadsandelar och sannolikt sälja så mycket mer att det inte innebar någon förlust sett på totalen. (även om det förstås är min oinformerade gissning och jag förstår de inte hur som helst kan ta den risken, plus att de kanske inte heller vill riskera att nischa sig som den konstanta "budgetlösningen")
Kontentan är att vi konsumenter får betala dyrt för vår GPU prestanda. Hela GPU-marknaden blir mer och mer nischad om GPU prestanda blir för dyr, och riskerar då att mer eller mindre ta död på triple-A gaming som den ser ut nu... och därför gnäller vi på Nvidia (och lite AMD)...

Skrivet av THB:

Uråldrig litografi, du vet att dessa nm inte säger typ något alls va?
Intels 14(massa plus) är likvärdiga med det AMD kallar 7nm, fast 10nm, vet du vad det beror de på på? Jo, de räknar olika.

Så sluta sprid felaktigheter och var istället glad att vi har konkurrens.

Nja, snarare är AMD:s 7nm hyfsat nära Intels 10mn - se Yoshmans svar här ovan...
Och i vilket fall är 14nm uråldrig för Intel vid det här laget. Det bär mig otroligt mycket emot att lägga några pengar på den arkitekturen igen, om de inte får till någon alldeles fantastiskt IPC förbättring vid nästa generationsbyte, vilket jag tvivlar på.
Så därför gnäller vi på Intel.

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk
Medlem
Skrivet av Yoshman:

RTX korten är inte dyrare än AMDs 7 nm kort om man jämför motsvarande prestandanivå.

Fast de är de väl generellt enligt den där bilden, om än väldigt marginellt? (eller läser jag helt fel?)
Men generellt håller jag med om att AMD inte utnyttjar sin möjlighet att priskonkurrera - jag nämnde mer om det här ovan.

Skrivet av Yoshman:

På GPU-sidan har Nvidia prestandakronan trots att man är kvar på TSMC 12 nm (som egentligen är TSMC 16 nm+).

Sant, vi har glömt bort att gnälla över att även Nvidia ligger efter på litografi-fronten - tack för tipset

Skrivet av Yoshman:

Hur SweC kom fram till att 5700 är ett bättre val för vinterdatorn jämfört med RTX 2060S är för mig ett mysterium!

Tja, den har ju 5% mer prestanda per krona?

Skrivet av Yoshman:

Gällande ray-tracing handlar eventuellt missnöjda med totalt orealistiska förväntningar. Hur mycket användes T&L på GeForce 256 och Radeon 7200?

T&L är en bra jämförelse som jag också funderat på! Den tog också väldigt lång tid att komma nånstans, absolut!
Tyvärr har jag inte orkat gräva i prissättningen av grafikkorten då kontra den tidens konkurrenter och kontra tex den tidens CPU-priser, men jag upplever det som att vi betalar högre priser - mer premium - för denna underutnyttjade funktionalitet nu än vad vi gjorde då...

Skrivet av Yoshman:

Angående om man ska vara glad för att Intel har enorma problem att komma vidare efter 14 nm. Det halvfulla glaset kan lika gärna användas på AMD: Zen2 och Skylake har rätt snarlik IPC, det tog bara AMD en hel-nods försprång och en krets med ~3 gånger så mycket cache (3900X har 4,5 gånger mer cache än 9900K) och ungefär dubbelt så många transistorer för att nå dit...

Hmm jo, så Intel måste i princip klanta bort sig för att AMD ska ha en chans... Det är ju dystert i sig nästan - värt lite gnäll det med

Skrivet av Yoshman:

Man kan också se Comet Lake som "glaset halvfullt", man kan också se att det är rätt mycket det bästa Intel kan göra i närtid då det gissningsvis kommer räcka för att behålla prestandakronan i spelsegmentet. Just spelsegmentet är, om jag förstått det hela rätt enda, enda området för stationära datorer som faktiskt växer. På det stora hela krymper eller i bästa fall ligger konsument PC still, men bärbara datorer äter upp allt mer av den kakan.

Visst jag förstår varför Intel gör vad de gör här och nu, och tror nog de håller sig någorlunda relevanta i den här mellanperioden utan större problem, men det betyder inte att jag behöver vara speciellt positiv över vad det innebär för mig som potentiell konsument av deras produkter.

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk
Medlem
Skrivet av Yoshman:

Om 6C/12T inte är så mycket att hurra över, hur förklarar du då att i5-9600K (6C/6T) har högre genomsnittlig FPS och samma lägsta FPS som en 3900X enligt Gamers Nexus återblick på 6600K/6700K (där alla CPUer körders med DDR4-3200 RAM)?

Den återblicken är faktiskt rätt intressant. Testet borde slå hål på myten om att "Ryzen skalar mycket bättre med RAM-prestanda". Kolla hur 6700K står sig när den får DDR4-3200 (i stället för DDR4-2166 som är officiella stödet). Faktiskt knappt någon skillnad mellan 7700K och 6700K (trots 10 % frekvensskillnad) när båda har lika snabbt RAM. Men framförallt, kolla prestandan hos i5-9600K när den får snabbare RAM.

Testet visar också att inte ens snabbt RAM kan rädda 6600K, 4C/4T har till slut blivit för lite för spel. Men det visar också att snabbt RAM kan inte heller rädda en modell som Ryzen 5 1600 (6C/12T), för låg prestanda per CPU-tråd gör också att det helt trillar av banan och 1600 klarar sig i princip lika illa som 6600K (båda har rejäla problem med lägsta FPS men de ligger också efter på genomsnittlig FPS).

Att 6C/12T är mer än nog kan man se när man ställer 3600 mot 3700X, skiljer några enstaka procent mellan dessa. Faktiskt lite större fördel för 3900X över 3700X, gissar att det mer är ett resultat av att 3900X har dubbelt så stor cache än 12C/24T mot 8C/16T.

Bra utläggning, men samtidigt gäller det ibland att åtminstone försöka se framåt - användningsscenarier kan se annorlunda ut om 6mån, 1 år, 2 år o.s.v. Titta hur hårt E8600 åldrades när parallelliseringen började komma igång på allvar (inte minst bortom ett par trådar), exempelvis. Minns hur snabb den var på enkeltrådade belastningar, men när det började bli tyngre/mer parallellt tappade den rejält mot 4-kärniga konkurrenter även i samma prisklass, är själv nöjd med att jag lyckades få tag på en Q9550 förhållandevis tidigt, det var en klart stark uppgradering några år efter jag byggde min egen E8600-rigg. Bara för att nuvarande applikationer/spel är optimerade primärt för ett begränsat antal trådar sker så klart utveckling även på mjukvarusidan som kan göra att förhållandena ändras.

Givetvis finns viss balans, det är viktigt att se över samtliga aspekter (även andra, som du även nämner - cache, minneskontroller och -hastighet, et.c.) men att ha med sig framtiden i åtanke om man planerar använda sitt bygge mer än några månader.

Visa signatur
Permalänk
Medlem

Jag tror i5 10400 kan bli en big hit.

Kommer nog prestera bättre i spel än Ryzen 3600 och nu när den har HT så är den ju direkt likvärdig kärnor/trådar sett.

Visa signatur

Fractal Design Define R4 | ASUS Z170-A | i7 6700K @ 4.6 GHz med CM Hyper 212 Evo
ASUS GTX 1070 Ti Cerberus Advanced | Corsair LPX Black 3000 Mhz 16 GB CL 14
Samsung m2 970 Evo 1 TB | EVGA Supernova G2 750W | Huawei Mate 20 X

Permalänk
Medlem

Så för att summera. 2 extra cores, minor clock speed bump. Skylake refresh refresh refresh refresh på 14nm++++++++++. Vad spännande...

Permalänk
Medlem
Skrivet av Yoshman:
RTX korten är inte dyrare än AMDs 7 nm kort om man jämför motsvarande prestandanivå

Tyvärr är den bistra sanningen här att Nvidia just nu leder mer på GPU-sidan än Intel någonsin gjort på CPU-sidan. När 2600K och FX-8150 stred var det i alla fall på samma nod-storlek (32 nm) och alla program som fungerade på 2600K gick i alla fall att köra på FX-8150.

På GPU-sidan har Nvidia prestandakronan trots att man är kvar på TSMC 12 nm (som egentligen är TSMC 16 nm+). CUDA är totalt dominant när GPGPU (till slut) börjar slå igenom på bred front, det samtidigt som AMD släppt OpenCL och i stället börjat pusha en egen teknik som än så länge knappt används någonstans alls. Faktiskt svår att se någon rationell anledning alls att välja AMDs GPUer över Nvidias just nu, det är alltid ett problem när någon blir så totalt dominant som Nvidia just nu är på GPU-sidan!

Hur SweC kom fram till att 5700 är ett bättre val för vinterdatorn jämfört med RTX 2060S är för mig ett mysterium!

Intel kommer har rejäl uppförsbacke på GPU-sidan, men man har faktiskt fördelen av marknadsandel. Intel GPUer står för ca 65 % av marknaden, så det finns en klar poäng för de som jobbar med GPGPU att få till stöd för Intel (framförallt på laptops då GPGPU typiskt har bättre perf/W än att göra motsvara på CPU). Men krävs ju först att man skapar något som är någorlunda tekniskt ekvivalent med CUDA (som är totalt överlägset allt annat på marknaden just nu).

Gällande ray-tracing handlar eventuellt missnöjda med totalt orealistiska förväntningar. Hur mycket användes T&L på GeForce 256 och Radeon 7200? Hur många gånger användes bump-mapping på Radeon 7200 (det var dragplåstret för den GPU)? Jämfört med dessa är RTX-korten en braksuccé då det faktiskt finns spel som använder den nya tekniken i dessa + professionella program har verkligen tagit till sig OptiX. OptiX är likt CUDA tyvärr ännu en Nvidia specifik API, gör det möjligt att använda RT-kärnorna i program som Blender och flertalet kommersiella renderingsprogram. Denna finess har ju på kort tid gjort CPUer helt irrelevanta för rendering!

Angående om man ska vara glad för att Intel har enorma problem att komma vidare efter 14 nm. Det halvfulla glaset kan lika gärna användas på AMD: Zen2 och Skylake har rätt snarlik IPC, det tog bara AMD en hel-nods försprång och en krets med ~3 gånger så mycket cache (3900X har 4,5 gånger mer cache än 9900K) och ungefär dubbelt så många transistorer för att nå dit...

I min mening helt irrelevant hur man når målet, Intel har faktiskt bara fått igång 10 nm för bärbara än. Men tittar man på bärbara ser man också att om man inom rimlig tid lyckas ta sina "Coves" till desktop är Intel tillbaka i ledarposition igen, Sunny Cove har rätt mycket bättre IPC än Zen2, det med färre transistorer/mindre yta (Intels 10 nm och TSMC 7 nm har i princip identisk densitet på ~100 MTr/mm²).

Men varför titta på det från "glaset är halvfullt" sidan? AMD gjorde det bästa av situationen, man tog sina begränsade resurser och slog till mot ett specifikt segment. Lisa verkar kunna sin Sun Tzu: Victory comes from finding opportunities in problems. Man insåg att Intel hade problem och skulle bli tvungna att prioritera. För Intel var bärbara en uppenbar prioritet över desktop då det är ~75 % av marknaden och "Client Computing Group" är fortfarande största division inom Intel.

Man kan också se Comet Lake som "glaset halvfullt", man kan också se att det är rätt mycket det bästa Intel kan göra i närtid då det gissningsvis kommer räcka för att behålla prestandakronan i spelsegmentet. Just spelsegmentet är, om jag förstått det hela rätt enda, enda området för stationära datorer som faktiskt växer. På det stora hela krymper eller i bästa fall ligger konsument PC still, men bärbara datorer äter upp allt mer av den kakan.

Kan inte påstå att Comet Lake känns speciellt spännande, men tycker ändå att Rocket Lake har en del riktigt intressanta vinklar. Tänk om det visar sig att en modern mikroarkitektur på en gammal nod tar prestandakronan, vad säger det om hur AMD/Intel borde agera på desktopsidan framöver? Bärbara och servers lär pusha mot nyare noder, den förra för de nya noder är mer energieffektiva vid lägre frekvenser och den senare för att det krävs för att få in mer finesser + går att ta betalt där.

Men mycket pekar på att framtida noder kommer ha ett lägre frekvenstak p.g.a. avsaknad av Dennard scaling, det betyder att W/mm² tyvärr ökar vid varje krympning -> kylningen av hot-spots, inte total effekt, blir allt mer en flaskhals.

Vad beträffar nVidia's CUDA-dominans och att det "...krävs ju först att man skapar något som är någorlunda tekniskt ekvivalent med CUDA (som är totalt överlägset allt annat på marknaden just nu)."

Vad tror du om tekniker som MLIR (Multi-Level Intermediate Representation) som Google jobbar på, skulle det kunna vara något?

Tekniken/initiativet är ju förvisso relativt nytt men verkar intressant samt att även de flesta storspelarna inom grafikacceleratorer redan verkar vara med på tåget. -Vilket lär vara av betydande vikt när tekniken skall adopteras inom många områden.

Visa signatur

Tower: ace Battle IV | CPU AMD Phenom II X2 BE unlocked 4cores@3,2GHz | RAM 8GB DDR2@800MHz | MB ASUS M4A785-M | GFK AMD Radeon HD 6850 1GB | HDD Kingston SSD Now 60GB (/) Seagate 2TB(/home) | OS Ubuntu 20.04 LTS
-Numera titulerad: "dator-hipster" då jag har en AMD GPU och dessutom kör Linux.

Permalänk
Medlem

Tycker allt hyllande av AMD är lite konstig.

Vi hyllar alltså att AMD äntligen är jämnsnabba med Intel som har en flera år gammal processor-arkitektur tillverkad på en gammal tillverkningsprocess?

I mitt tycke borde inte AMD vara ifatt, de borde vara långt förbi för att hyllas med tanke på 7nm och helt ny arkitektur.

Skickades från m.sweclockers.com

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem
Skrivet av CubaCola:

Tycker allt hyllande av AMD är lite konstig.

Vi hyllar alltså att AMD äntligen är jämnsnabba med Intel som har en flera år gammal processor-arkitektur tillverkad på en gammal tillverkningsprocess?

I mitt tycke borde inte AMD vara ifatt, de borde vara långt förbi för att hyllas med tanke på 7nm och helt ny arkitektur.

Skickades från m.sweclockers.com

Fast i flera kategorier är de ju förbi. T ex flyttalsprestanda, och total beräkningskapacitet per processor, både absolut (för modellerna med många kärnor) och prisrelativt (för modellerna med samma antal kärnor). Intel leder fortfarande i heltalsprestanda i fåtrådade sammanhang (främst tack vare högre maxfrekvenser), och inte så mycket mer än så.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Master of Overkill
Skrivet av CubaCola:

Tycker allt hyllande av AMD är lite konstig.

Vi hyllar alltså att AMD äntligen är jämnsnabba med Intel som har en flera år gammal processor-arkitektur tillverkad på en gammal tillverkningsprocess?

I mitt tycke borde inte AMD vara ifatt, de borde vara långt förbi för att hyllas med tanke på 7nm och helt ny arkitektur.

Skickades från m.sweclockers.com

Tänk också på AMD R&D budget är nada vs Intel.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem
Skrivet av slusk:

Öh va på vilket sätt ligger dom efter?
Stirrar du dig blint på Intels fantasi siffror som kommer kräva minst vattenkylning eller?

Skickades från m.sweclockers.com

Du lever kvar i det förflutna. De nya CPUerna från Intel är ju "deliddade" från fabrik. Min i9 9900k brukar va igång cirka 10 timmar/dag med blandade aktiviteter och spel, och den går aldrig över 37-38 grader med luftkylning.
Intels siffror brukar stämma väldigt bra. Ta en titt på bulldozer istället och kom tillbaka.

Visa signatur

Dator 1: | i9 9900k | MSI RTX 4080 Ventus 3x OC | ASUS ROG STRIX Z390-F Gaming | Corsair LPX DDR4 32 GB 3200Mhz | FD define S | Samsung 850 EVO 1TB | Samsung 980 NVMe M.2 1TB | Noctua NH-U12S | Corsair RM750x 750W | Windows 11
Skärm 1: ASUS 27" ROG SWIFT PG279Q 1440p @ 165Hz/IPS/G-Sync
Skärm 2: ASUS 27" TUF VG27AQ1A 1440p @ 170Hz/IPS/G-Sync/HDR

Permalänk
Medlem
Skrivet av CubaCola:

Tycker allt hyllande av AMD är lite konstig.

Vi hyllar alltså att AMD äntligen är jämnsnabba med Intel som har en flera år gammal processor-arkitektur tillverkad på en gammal tillverkningsprocess?

I mitt tycke borde inte AMD vara ifatt, de borde vara långt förbi för att hyllas med tanke på 7nm och helt ny arkitektur.

Skickades från m.sweclockers.com

Helt rätt. Men 95% av medlemmarna på den här sidan är AMD fanbois och kan blint inte inse detta.

AMD gör framsteg: AMD hyllas och Intel trycks ner en aning och får en känga i kommentarerna.
Intel gör framsteg: På ett eller annat sätt ger man Intel en känga, om det är stora framsteg får de känga för priset, eller gammal arkitektur, något går alltid att hitta. Sen brukar man glorifiera AMD lite i samma kommentar.

Usch.

Visa signatur

Dator 1: | i9 9900k | MSI RTX 4080 Ventus 3x OC | ASUS ROG STRIX Z390-F Gaming | Corsair LPX DDR4 32 GB 3200Mhz | FD define S | Samsung 850 EVO 1TB | Samsung 980 NVMe M.2 1TB | Noctua NH-U12S | Corsair RM750x 750W | Windows 11
Skärm 1: ASUS 27" ROG SWIFT PG279Q 1440p @ 165Hz/IPS/G-Sync
Skärm 2: ASUS 27" TUF VG27AQ1A 1440p @ 170Hz/IPS/G-Sync/HDR

Permalänk
Medlem
Skrivet av Andreaz1:

Ja om dessa siffror stämmer ligger ju AMD bara 6 kärnor och 12 trådar före på mainstreamplattformen, hu!

Ja, lägg till 30 kärnor till, det kommer ju gör att ligger ännu mer före! *facepalm*

Visa signatur

Dator 1: | i9 9900k | MSI RTX 4080 Ventus 3x OC | ASUS ROG STRIX Z390-F Gaming | Corsair LPX DDR4 32 GB 3200Mhz | FD define S | Samsung 850 EVO 1TB | Samsung 980 NVMe M.2 1TB | Noctua NH-U12S | Corsair RM750x 750W | Windows 11
Skärm 1: ASUS 27" ROG SWIFT PG279Q 1440p @ 165Hz/IPS/G-Sync
Skärm 2: ASUS 27" TUF VG27AQ1A 1440p @ 170Hz/IPS/G-Sync/HDR

Permalänk
Medlem
Skrivet av xcluzive:

Du lever kvar i det förflutna. De nya CPUerna från Intel är ju "deliddade" från fabrik. Min i9 9900k brukar va igång cirka 10 timmar/dag med blandade aktiviteter och spel, och den går aldrig över 37-38 grader med luftkylning.
Intels siffror brukar stämma väldigt bra. Ta en titt på bulldozer istället och kom tillbaka.

Haha dessa fanboys...
Vad gör du för blandade aktiviteter förutom spotify och lite pronsurf om din 9900k aldrig är över 37-38grader?

Kör du med en byggfläkt till kylare? Bor du på nordpolen?
Och nej dom är inte "deliddade" från fabrik.. Deras värmespridare är fastlödd pga den massiva värmeutveckling istället för kylpasta som dom brukade ha.

Och vart kom Bulldozer in i detta? Sluta dra upp gamla saker istället.. Ta nya saker istället om du ska dra upp något, typ problemen ryzen 3000 har med boost, Intel lögner om att säkerhetshålen är fixade osv.

Men tycker ändå du borde skicka in din cpu och kylare till sweclockers.com för review för du har verkligen ett Golden sample!

I am glad for you! 🥳

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av CubaCola:

Tycker allt hyllande av AMD är lite konstig.

Vi hyllar alltså att AMD äntligen är jämnsnabba med Intel som har en flera år gammal processor-arkitektur tillverkad på en gammal tillverkningsprocess?

I mitt tycke borde inte AMD vara ifatt, de borde vara långt förbi för att hyllas med tanke på 7nm och helt ny arkitektur.

Skickades från m.sweclockers.com

Är lite skillnad på dessa företag..
Har för mig att intel har lika många anställda för att optimera företags mjukvaror så det funkar bättre på Intel cpuer som hela AMD har anställda.
Intels R&D är väl som hela AMDs omsättning 😂

Permalänk
Medlem

@xcluzive: Jo jag är amd fantast det ser du i min signatur . Alltså nu börjar det hända saker alla får bättre prollar för samma eller billigare pris oavsett om du väljer Intel eller Amd . Det är tack vare hård konkurrens mellan dessa 2 . Tänk Intel halverade sina priser på HEDT så i stället för att pengarna hamnar i deras fickor så hamnar den hos kunden . När jag köpte min Dator fanns bara Intel att välja på nu finns det 2 och välja på och trots att jag spelar mest kommer nästa prolle bli en AMD oavsett om den är 5-10 % sämre i just spel . Enbart för att man tjänar på det i långa loppet . Det handlar inte om hyllning för just AMD utan en hyllning att det finns 2 olika bolag att välja på ( Bättre priser bättre prollar ) .

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk
Skrivet av cyklonen:

Ja, om man räknar på praktiskt uppnåbar snittklockfrekvens för en 9900K (säg 4.9 GHz för fåtrådad last kontinuerligt) och en 3800X/3900X/3950X (4.3 GHz), så skiljer det 14 procent. Om Zen 3 ger 10-12 procent IPC-ökning och 100-200 MHz högre snittfrekvens, då är skillnaden utraderad i praktiken.

Sen så tror jag att amd bryr sig inte om att vara på toppen i gaming segmentet utan mer eller mindre nöjer sig i topp på allround användning. För många som videoredigerar spelar ju åxå så det blir bara + om amds processorer funkar på spel åxå.. fast med 4-10 fps mindre eller något.. typ Youtubers är amd ryzen3000 perfekt för snabbare redigering = snabbare upplagd film. Så amd kör på snabbare multitasking istället för mest fps i spelen.. men dom andra säger skönt att den har kommit tbx efter att intel har dominerat då länge. Och sen får vi väl se vem som kommer först ner till 5nm eller lägre först. Undra när dem börjar med 3d processorer. Var det inte amds vd som kom ut med att dem skulle kunna börja med att tillverka cpu på 3d att dem lägger kärnorna på varandra.. har för mig att jag har läst det på swec förut..

Skickades från m.sweclockers.com

Permalänk
Datavetare
Skrivet av Roger W:

Fast de är de väl generellt enligt den där bilden, om än väldigt marginellt? (eller läser jag helt fel?)
Men generellt håller jag med om att AMD inte utnyttjar sin möjlighet att priskonkurrera - jag nämnde mer om det här ovan.
Sant, vi har glömt bort att gnälla över att även Nvidia ligger efter på litografi-fronten - tack för tipset
Tja, den har ju 5% mer prestanda per krona?

T&L är en bra jämförelse som jag också funderat på! Den tog också väldigt lång tid att komma nånstans, absolut!
Tyvärr har jag inte orkat gräva i prissättningen av grafikkorten då kontra den tidens konkurrenter och kontra tex den tidens CPU-priser, men jag upplever det som att vi betalar högre priser - mer premium - för denna underutnyttjade funktionalitet nu än vad vi gjorde då...

Hmm jo, så Intel måste i princip klanta bort sig för att AMD ska ha en chans... Det är ju dystert i sig nästan - värt lite gnäll det med

Visst jag förstår varför Intel gör vad de gör här och nu, och tror nog de håller sig någorlunda relevanta i den här mellanperioden utan större problem, men det betyder inte att jag behöver vara speciellt positiv över vad det innebär för mig som potentiell konsument av deras produkter.

Tidigt i Lisa Su period som AMDs VD fastslog hon att "AMD kan inte bara vara det billigare alternativet". Den insikten är nog en stor förklaring i varför AMD är där man är idag. Det är i princip omöjligt att få ekonomi i en sådan strategi på en marknad som inte växer.

Tror också att folk överskattar prisfördelarna med "chiplets". Om AMDs CPUer skulle vara så mycket billigare att tillverka än Intels borde AMD nu har högre bruttomarginaler än Intel, de tar trots allt rätt lika betalt för motsvarande prestandanivå nu!

Men dels är TSMC 7 nm (Intels 10 nm) väsentligt dyrare räknat per mm² jämfört med Intels 14 nm. Dels kräver "chiplets" totalt mer kretsyta, en 3900X har ju totalt 2*75 + 125 = 275 mm² kisel (3600-3800X har totalt 200 mm² kisel). Är också dyrare paketering med fler kretsar. Primära fördelen med "chiplets" kommer i de största serverkretsarna som med monolitisk design får bedrövligt utbyte. För bärbara och desktops gissar jag att monolitiska kretsar fortfarande är billigare (om inte så vore fallet borde ARM SoC tillverkarna gått över till MCM, men där är det en stark trend att integrera allt på en krets).

Och just priset är parametern många verkar ignorera när de dissar Comet Lake. Intels 14 nm måste vara en av historiens absolut mest intrimmade processer just nu, det måste finnas rejält med marginal för att justera ned priset. Även med 10 kärnor lär total kretsarean inte överstiga 200 mm², det är inte speciellt stort (2600K var ju hela 216 mm², AMD Tuban var hela 346 mm³).

Om Comet Lake behåller titeln som "bästa spelprestanda pengar kan köpa" så borde rätt prissättning göra serien hyfsat framgångsrik. För handen på hjärtat; utanför nischområden, vad gör en typiskt PC-användare förutom spel som är speciellt krävande? (Jag gör andra saker, därför är 3900X/3950X bättre för mig, men inser att det definitivt inte är något majoriteten pillrar med).

Skrivet av Pettson88:

Bra utläggning, men samtidigt gäller det ibland att åtminstone försöka se framåt - användningsscenarier kan se annorlunda ut om 6mån, 1 år, 2 år o.s.v. Titta hur hårt E8600 åldrades när parallelliseringen började komma igång på allvar (inte minst bortom ett par trådar), exempelvis. Minns hur snabb den var på enkeltrådade belastningar, men när det började bli tyngre/mer parallellt tappade den rejält mot 4-kärniga konkurrenter även i samma prisklass, är själv nöjd med att jag lyckades få tag på en Q9550 förhållandevis tidigt, det var en klart stark uppgradering några år efter jag byggde min egen E8600-rigg. Bara för att nuvarande applikationer/spel är optimerade primärt för ett begränsat antal trådar sker så klart utveckling även på mjukvarusidan som kan göra att förhållandena ändras.

Givetvis finns viss balans, det är viktigt att se över samtliga aspekter (även andra, som du även nämner - cache, minneskontroller och -hastighet, et.c.) men att ha med sig framtiden i åtanke om man planerar använda sitt bygge mer än några månader.

Måste erkänna att jag har rätt dålig koll på Core2. Enda stället jag någonsin körde den CPUn var i MacBook Pro, på desktop gick jag från Phenom X4 (mins inte exakt modell) till i7-2600k (sista gången en CPU-uppgradering gett "wow" känsla).

Kikade lite på i7-9x0 tester. Där hängde ju E8600 med hur bra som helst i spel, ofta före lägre klockade C2Q modeller. C2Q hängde inte med Nehalem speciellt bra i de fall som skalade riktigt bra med kärnor. Så känns som det var den typiska utvecklingen, när E8400 väl blev för långsam (den lanserades ju 2006, så var ju redan 2 år gamman när Nehalem kom) var även C2Q modellerna för långsamma då flaskhalsen primärt blev för lång prestanda per kärna.

Intels HEDT har aldrig känts speciellt relevant för egen del, detta just då den legat efter S-serien i prestanda per CPU-kärna och därmed ett sämre val för majoriteten av all programvara som i alla fall jag kör på desktop. Vill hävda att majoriteten av alla PC-användare fortfarande inte har någon nytta av mer än två kärnor, det är orsaken till att ~75 % av PC-marknaden består av bärbara. För normalanvändaren är nog spel det som främst utnyttja "många" kärnor.

Både AMD och Intel har uppenbarligen insett detta: de säkerställer nu att den dyraste konsumentmodeller inte bara har flest kärnor, det är också den modell som har högst enkeltrådprestanda. Det säkerställer att det finns ett solklart "bästa val" oavsett användningsområde, ett bästa val som trevligt nog för dem sammanfaller med den modell med högst pris och gissningsvis högst vinstmarginal. Har full förståelse för att man gör på det sättet!

Skrivet av krigelkorren:

Vad beträffar nVidia's CUDA-dominans och att det "...krävs ju först att man skapar något som är någorlunda tekniskt ekvivalent med CUDA (som är totalt överlägset allt annat på marknaden just nu)."

Vad tror du om tekniker som MLIR (Multi-Level Intermediate Representation) som Google jobbar på, skulle det kunna vara något?

Tekniken/initiativet är ju förvisso relativt nytt men verkar intressant samt att även de flesta storspelarna inom grafikacceleratorer redan verkar vara med på tåget. -Vilket lär vara av betydande vikt när tekniken skall adopteras inom många områden.

Lästa på lite om MLIR, första tanken blev direkt: varför starta något nytt i stället för att jobbar med LLVM-gänget!!!
Uppenbarligen tänkte MLIR gänget likadant, det är nu instoppat i LLVM.

MLIR verkar, just nu i alla fall, primärt rikta in sig på TensorFlow och då för att kunna stödja olika former av FPGA:er och "NPUer" (Network Processor Units) för att snabba upp maskininlärning. Man nämner att MLIR kan spotta ur sig LLVM IR-kod, vilket är precis vad Intel och AMD använder sig av i sina drivare (AMD använder det i all fall i sina öppna ROCm). Så borde gå att använda även för GPUer, men kan inte detaljerna så kan inte säga säkert.

Problemet är att det inte löser det både AMD och Intel verkligen behöver nu: något likt CUDA som vi utvecklare kan använda! Detta säger man specifikt om MLIR i relation till detta

"we do not intend MLIR to be a source language that end-users would themselves write kernels in (analogous to CUDA C++)"

OpenCL var aldrig ett reellt hot mot CUDA, OpenCL var för långnivå och för pillrigt jämfört med CUDA. Själv hoppas jag på SYCL. OpenCL kan användas som "driver" till SYCL, vilket är precis vad Intel gör (vissa ARM-tillverkare, t.ex. Xilinx som gör mycket FPGA-acceleration, verkar också stödja SYCL). Däremot verkar inte AMD lägga speciellt mycket krut på SYCL just nu, de kör ett eget spår i form av HIP

På riktigt lång sikt finns planer att få in GPGPU stöd direkt i standard C++. Det är förstås det optimala, men realistiskt ligger det nog ett decennium bort

Och är bl.a. därför jag anser 2060S vara ett överlägset val mot 5700 om de har snarlikt pris. 2060S är lika bra i spel, den har fler funktioner, lika bra eller direkt överlägsen (om OptiX alt. tensor-cores i CUDA används) GPGPU-prestanda och CUDA är (tyvärr) det program/bibliotek primärt stödjer idag.

Skrivet av cyklonen:

Fast i flera kategorier är de ju förbi. T ex flyttalsprestanda, och total beräkningskapacitet per processor, både absolut (för modellerna med många kärnor) och prisrelativt (för modellerna med samma antal kärnor). Intel leder fortfarande i heltalsprestanda i fåtrådade sammanhang (främst tack vare högre maxfrekvenser), och inte så mycket mer än så.

Det lustiga är att det du skriver är helt sant, men ändå blir det inte riktigt rätt i praktiken... Ryzen har alltid varit riktigt stark i skalära flyttal, d.v.s. det man får om man använder flyttal rakt upp och ned i de traditionella programspråken. Ändå är en av de få kvarvarande fallen där Intels HEDT-plattform fortfarande är vettig just flyttal. Hur går det ihop?

Helt enkelt då benchmarks tenderar mäta det "gamla" sättet att använda flyttal. Det Intel (och även Nvidia på GPU-sidan) gör är lägga enormt med resurser på programvara, programvara som ger bort "gratis". Fast alla borde veta att inget i livet är gratis, vad både Intel och Nvidia gör är att på lite olika sätt låsa denna programvara till sitt eget kisel. D.v.s. man betalar indirekt för programvaran genom sitt köp av kretsar.

Ett riktigt välanvänt bibliotek just för flyttalsintensiva program är Intels MKL. MKL är handoptimerat för varje CPU-modell Intel har, specifikt är det rejält intrimmat för AVX och, i HEDT/Xeon fallet, AVX-512. Är framförallt när AVX-512 används som Intels CPUer får lysande flyttansprestanda, vidare har man i de senaste modeller även specialinstruktioner för specifika områden som t.ex. maskininlärning (och Intel har bibliotek som gör att dessa instruktioner används i ramverk som TensorFlow och PyTorch).

Sedan finns det ett ganska viktigt område där Intel leder. Inte så relevant för desktop, men väl för servers. Zen2 har inte en massiv mängd cache för att det är "roligt", AMD insåg uppenbarligen att en integrerad RAM-kontroller har rejäla fördelar (de borde inse detta då just detta var något AMD hade som klar fördel i Phenom över Core2, Intel fick integrerad RAM-kontroller först i Nehalem). I fall där mängden data man aktivt jobbar med är större än CPU-cache alt. fall där data tenderar vara "cache-cold" (t.ex. I/O) så tar Zen2 en väsentligt större prestandahit jämfört med Skylake.

Ett aktuellt fall är mikroservices i containers. I en större lösning som består av flera containers blir det rätt mycket kommunikation mellan de ingående mikroservices. I det mätningar jag gjort på 3900X mot Xeon22288G (är i princip en i9-9900K med ECC RAM) är det rejäl fördel för Intel, från 30 % (det om man håller sig inom samma CCX på Zen2) upp till 100 % (om mikroservices kör på olika CCX). Orsaken här är att IPC mellan program som går på olika CPU-kärnor kommer i praktiken vara beroende av låg latens mot RAM.

Tycker ändå att Zen2 generellt sätt är bättre än Skylake som desktop-dator (framförallt då jag själv inte spelar på min dator). Intel har definitivt kvar ledartröjan för bärbara. För servers beror det på vad man gör, det är långt ifrån ett sådan övertag för AMD som många verkar tro utan Intel är fortfarande det bättre valet i rätt många fall (fast AMD är definitivt med i matchen, något man inte varit på över ett decennium!).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Inaktiv

De Sweclockers har uppvisat går inte med vad andra visat då i5 10400 inte har de klockfrekvenserna som andra sidor har visat. Kräver en förklaring eller så låter vi bara visa sig vilka klockfrekvensen det blir vid försäljning.