Intel "Alder Lake" träder fram ur skuggorna – upp till dubblerad flertrådsprestanda

Permalänk
Melding Plague

Intel "Alder Lake" träder fram ur skuggorna – upp till dubblerad flertrådsprestanda

Bildmaterial letar sig ut på webben i förtid. Att "Alder Lake" erbjuder nymodigheter som DDR5 och PCI Express 5.0 står således klart.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Undrar vad den verkliga prestandan blir... nu när vi inte får använda benchmarks för att jämföra prestanda längre enligt Intel själva.

Permalänk
Medlem

Superfint

Permalänk
Medlem

Jag förstå mig inte på Intel. Dem ska ju nu släppa en ny serie, och så läcks redan siffrorna för serien som ska komma efter. Sabba man inte sin egen lansering med det genom att visa att det som ska släppas nu redan är kall kaffe?

Visa signatur

GamingRig: Cooler Master NR200P/ASUS ROG STRIX B550-I GAMING/AMD Ryzen 5 5700G/Noctual NH-D12L/Corsair SF750 Platinum/Crucial Ballistix Elite 2x8GB 3600MHz/

Permalänk
Medlem

fortfarande bara alder lake ingen ny info om hedt segment som tex sapphire rapids men bra för de som är intreserad av ren mellanklass. rocket lake & ice lake får kort levnadstid

Visa signatur

Arne Berg

Permalänk
Medlem
Skrivet av Bernd_P1:

Jag förstå mig inte på Intel. Dem ska ju nu släppa en ny serie, och så läcks redan siffrorna för serien som ska komma efter. Sabba man inte sin egen lansering med det genom att visa att det som ska släppas nu redan är kall kaffe?

Kanske känner de att deras nuvarande lansering inte lever upp till vad de hoppades på och då redan börja prata om fina siffror, men till nästa gång.

Visa signatur

Huvudriggen är en Gigabyte Aorus Xtreme | 128gb DDR5 6000 | Ryzen 7950X | 3080Ti
Utöver det är det för många datorer, boxar och servar för att lista :P

Permalänk
Medlem
Skrivet av Bernd_P1:

Jag förstå mig inte på Intel. Dem ska ju nu släppa en ny serie, och så läcks redan siffrorna för serien som ska komma efter. Sabba man inte sin egen lansering med det genom att visa att det som ska släppas nu redan är kall kaffe?

Rocket lake lär sälja väldigt bra, det är beprövad teknik, billigt (14nm, DDR4, PCI-E 4).

Nästa kanske får stöd för DDR4 och DDR5 men det är överlag en ny teknik och ställen som köper i stora mängden brukar inte vilja vara först på nya saker. Som privatperson kan du ju nog enklare motivera 50-200% dyrare ram, eventuellt problem med drivrutiner, ostadigare system osv.

Visa signatur

i9 11900k ||32GB 4000MHz CL15||ASUS ROG STRIX Z590-E||Noctua NH-D15s
Intel Arc a750 ||Samsung 980 pro|| EVGA Supernova G3 850W
Asus xonar essence STX|| Lian-Li O11 Dynamic XL
Asus VG27AQ 165Hz IPS, Sennheiser HD650, Logitech g502 Hero, fUnc f30r, Vortex TAB90M, Audio-Technicha ATR2500x-USB
Server: x10SL7-F, Xeon E3 1230v3, 32GB Samsung ECC ram, 6x3TB WD RED, FD Node 804.

Permalänk
Medlem

Har varit klart sedan länge att rocket lake har kort livsspann
folk gillar verkligen inte att alder lake kommer med pci-e5 alla försöker undvika detta faktum, tycker det står ganska klart att alder lake har 16 pci-e linor pci-e5 & 4a pci-e4 på z690 kretsen men alla kommer väl köpa de mindre versionerna eller oxå så har de en amd i nuläget vem vet. sen har den ddr5 oxå om ni nu missat detta oxå. men som sagt kommer själv hoppa detta & kolla in sapphire rapids själv men ändå

Visa signatur

Arne Berg

Permalänk
Medlem
Skrivet av Bernd_P1:

Jag förstå mig inte på Intel. Dem ska ju nu släppa en ny serie, och så läcks redan siffrorna för serien som ska komma efter. Sabba man inte sin egen lansering med det genom att visa att det som ska släppas nu redan är kall kaffe?

Njae... Så länge det skrivs om dem så lär det det räcka. Se på GPU:er. Folk läste om Nvidia RTX 2090 Ti men köpte Nvidia RTX 2070. Folk läste om Nvidia RTX 3090 men köpte Nvidia RTX 2070... | `Д ´| Det räcker att det står Nvidia RTX, i teorin alltså, numera...

Visa signatur

| Fractal Design Define R5| Asrock X399 Fatal1ty| Threadripper 1950X| Noctua NH-U14S TR4-SP3| Corsair Vengeance LPX 8x16GB 3200 C16| be quiet! Straight Power 11 Platinum 1000W| ASUS RTX 3080 10GB Strix| LG OLED 4k 42" C2| Debian Sid| KDE 5.x|

Permalänk
Snusfri

Intressant, ska bla roligt att se tester i höst, börjar bli dags att uppgradera min burk nu.

Visa signatur

WS: i9 13900K - 128GB RAM - 6.5TB SSD - RTX 3090 24GB - LG C2 42" - W11 Pro
LAPTOP 1: Lenovo Gaming 3 - 8GB RAM - 512GB SSD - GTX 1650
LAPTOP 2: Acer Swift 3 - 8GB RAM - 512GB SSD
SERVER: i5 10400F - 64GB RAM - 44TB HDD
NALLE: Pixel 7 Pro

Permalänk
Datavetare

Om Golden Cove (de stora kärnorna) får ~40 % högre IPC jämfört med Skylake och man utgår från att Gracemont, som är en vidareutveckling av dagens Atom Tremont, likt tidigare Atom inte kommer klocka superhögt utan stanna på 3-3,5 GHz blir förväntad all-core prestanda rätt mycket dubbelt så hög som idag. I alla fall om Gracemont når den IPC som ryktas, vilket är att matcha dagens Skylake.

Det är ju kul ur benchmarksyfte kanske. Den viktigare delen är hur "big.LITTLE" designerna uppför sig i praktiken. Förutsatt att man får till schemaläggning på ett bra sätt, något som idag är ett löst problem både i Linux och MacOS -> förväntar mig nästan att man får till det från start i Windows, är det i praktiken ett större lyft än 2x.

Orsaken är att helt designer med symmetriska CPU-kärnor baserade på x86 måste i praktiken dra ned frekvensen en hel del när alla kärnor jobbar, något som minskar prestanda per kärna och vilket i sin tur försämrar upplevelsen hos de interaktiva man använder parallellt med saker som lastar CPU fullt ut (och vad är poängen med 16 kärnor om man inte tänker köra sådana laster?).

För att få ihop ekvationen med 2x total prestanda måste Golden Cove kärnorna klocka ned sig relativt lite, vilket lär vara fallet även i praktiken då 8 Atom kärnor inte lär dra mycket mer än ~20-30 W. Dessa 20-30 W kan ställas mot att moderna x86 kärnor (både Intels och AMDs) drar 40-50 W per kärna vid de >=5 GHz man når idag.

Big.little kan kännas som något för bärbara, men strömbudget är faktiskt en rejäl flaskhals även för desktop så fort man går förbi ~8 kärnor, i alla fall om man inte tänker dra upp effekten till server CPU nivå...

Tror Intel får svårt att konkurrera mot Apple på tunna bärbara, men ju mer som kommer fram ju intressantare blir Alder Lake S (desktop varianten). Med kretseffekt på 100-150 W kan det bli riktigt fin prestanda, tror inte det blir fullt lika imponerande när det hela stryps under 25 W.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Bernd_P1:

Jag förstå mig inte på Intel. Dem ska ju nu släppa en ny serie, och så läcks redan siffrorna för serien som ska komma efter. Sabba man inte sin egen lansering med det genom att visa att det som ska släppas nu redan är kall kaffe?

Sabbar vadå? För att det finns en roadmap som dom försöker hålla? Lovar att dom redan börjat pilla på serien som kommer efter Alder Lake. Det här säger inte så mycket även om bilderna är tagna från Intels testlab.

Permalänk
Medlem
Skrivet av Yoshman:

Om Golden Cove (de stora kärnorna) får ~40 % högre IPC jämfört med Skylake och man utgår från att Gracemont, som är en vidareutveckling av dagens Atom Tremont, likt tidigare Atom inte kommer klocka superhögt utan stanna på 3-3,5 GHz blir förväntad all-core prestanda rätt mycket dubbelt så hög som idag. I alla fall om Gracemont når den IPC som ryktas, vilket är att matcha dagens Skylake.

Det är ju kul ur benchmarksyfte kanske. Den viktigare delen är hur "big.LITTLE" designerna uppför sig i praktiken. Förutsatt att man får till schemaläggning på ett bra sätt, något som idag är ett löst problem både i Linux och MacOS -> förväntar mig nästan att man får till det från start i Windows, är det i praktiken ett större lyft än 2x.

Orsaken är att helt designer med symmetriska CPU-kärnor baserade på x86 måste i praktiken dra ned frekvensen en hel del när alla kärnor jobbar, något som minskar prestanda per kärna och vilket i sin tur försämrar upplevelsen hos de interaktiva man använder parallellt med saker som lastar CPU fullt ut (och vad är poängen med 16 kärnor om man inte tänker köra sådana laster?).

För att få ihop ekvationen med 2x total prestanda måste Golden Cove kärnorna klocka ned sig relativt lite, vilket lär vara fallet även i praktiken då 8 Atom kärnor inte lär dra mycket mer än ~20-30 W. Dessa 20-30 W kan ställas mot att moderna x86 kärnor (både Intels och AMDs) drar 40-50 W per kärna vid de >=5 GHz man når idag.

Big.little kan kännas som något för bärbara, men strömbudget är faktiskt en rejäl flaskhals även för desktop så fort man går förbi ~8 kärnor, i alla fall om man inte tänker dra upp effekten till server CPU nivå...

Tror Intel får svårt att konkurrera mot Apple på tunna bärbara, men ju mer som kommer fram ju intressantare blir Alder Lake S (desktop varianten). Med kretseffekt på 100-150 W kan det bli riktigt fin prestanda, tror inte det blir fullt lika imponerande när det hela stryps under 25 W.

under 25w tror jag inte heller det blir imponerande men det är ju inget idagsläget i vilket fall. (om man inte är intreserad av bärbara datorer då)

Visa signatur

Arne Berg

Permalänk
Medlem
Skrivet av Bernd_P1:

Jag förstå mig inte på Intel. Dem ska ju nu släppa en ny serie, och så läcks redan siffrorna för serien som ska komma efter. Sabba man inte sin egen lansering med det genom att visa att det som ska släppas nu redan är kall kaffe?

Är väl knappast Intel som läcker dom med flit. Finns ju massor av internt material som är tänkt för framtida presentationer eller underlag för anställda. Inte så konstigt att de läcker ut i förtid.
Ser väldigt många konspirations teorier på SweClockers om allt från läckor till medvetna misstag allt för å lura marknaden eller konsumenter, verkligheten är betydligt tråkigare än så och den största sannolikheten är helt enkelt att den mänskliga faktorn ofta ligger bakom.

Visa signatur

CPU: i7- 13700KF + Corsair 115i Pro || GPU: 2080 Super FE
MoBo: Gigabyte Gaming X AX Z790 || Ram 32GB G.Skill Trident Z 6600mhz
Chassi: Corsair Obsidian 500D PSU: Corsair RMX 850
Skärm 1: AGON AG271QG 1440p 165hz Skärm 2: LG C2

Permalänk
Medlem

Jag gillar att tillverkarna börjar innovera och att vi kommer se nya arkitekturer tätare.

Permalänk
Medlem

Som vanligt går det inte dra några definitiva slutsatser innan grejerna kan testas i en verklig driftmiljö, men kul att det börjar dyka upp såpass mycket info att det finns en möjlighet att det kan bli en produktrelease inom sagda tidsramar.

Permalänk
Medlem

Alder Lake "big.LITTLE" 8+8 kommer nog bli ersättare för bärbara/släpbara Tiger Lake i9 11980HK @ 65W

Visa signatur

I've somehow been WASDing my whole life

13th Intel 8P@6GHz E-cores off Kraken X73 360mm DDR5 m.2@7000MB/sek Gigabyte Z690
Alltid över AMD 3D med överklocking i fakefikans (swefaker) grafer med intel :)

Permalänk
Medlem

Har för mig att de under ganska lång tid ett 2-3 år sagt att alder lake kommer 2021 & att rocket lake får kort livstid samma med ice lake på xeon sidan båda typ 6månader

Visa signatur

Arne Berg

Permalänk
Medlem

Verkar ju lovande

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem

Dags uppgradera sin gamla 9900k kanske 🙂

Permalänk
Inaktiv
Skrivet av Nyhet:

Även på primärminnesfronten är stödet dubbelt, med två kanaler DDR4 i maximalt 3 200 MHz, eller två kanaler DDR5 i 4 800 MHz.

Menas 1 DIMM/2 kanaler DDR5, eller 2 DIMM/4 kanaler DDR5?

Detta då DDR5 ju använder 2 32-bitars kanaler per DIMM-sockel (mot 1 64-bitars kanal per DIMM traditionellt såklart.) Jag förmodar att Alder Lake har stöd för full 128-bitars minneskontroller även i DDR5-läge, så sannolikt 4 minneskanaler då alltså.

Permalänk

Är själv ägare av en "big.LITTLE" x86 CPU sedan några dagar tillbaka....
Core i5-L16G7 som sitter i min laptop Galaxy Book S, med TDP-down på 5 watt (om jag inte minns fel).
Det ska bli kul att testa den, så fort jag orkar packa upp. Ska bli kul att se om W10 o övrig software uppför sig bättre (scheduler-mässigt) än vid de begynnande recensionerna.

Hoppas också jag får möjlighet att konfigurera kärnorna individuellt i BIOS eller XTU (men lär knappast hända) så att man kan göra den ännu mer konservativ med frekvenser, och dra ner atomerna till baseclock, o kanske även sunny cove kärnan.

En sak som dock stör mig med Core i5-L16G7 är att den påstods få AVX (i olika tappningar), men sen läste jag nått om att det endast gäller när den kör single core (endast "Sunny Cove" kärnan är aktiv), för att senare läsa att i5-L16G7 saknar AVX helt.
Mao är det inte bara schedulern som kan bli ett problem med Alder Lake, utan även sådana hära aspekter. Nu påstås ju Gracemont få AVX, till skillnad från Tremont, men kan definitivt se hur liknande problem kan uppkomma ändå i annat.

Visa signatur

Dator: EEE901 N270/ 1GB / 20GB SSD ... Kraftigt nedbantat/tweakat Win7 x86 for speeeEED!
Facebook användare? Hatar tidslinjen? gå med i denna FB-grupp:
Undo Timeline ...med lite tur får h*lvetet ett slut!

Permalänk
Inaktiv
Skrivet av lastninja:

En sak som dock stör mig med Core i5-L16G7 är att den påstods få AVX (i olika tappningar), men sen läste jag nått om att det endast gäller när den kör single core (endast "Sunny Cove" kärnan är aktiv), för att senare läsa att i5-L16G7 saknar AVX helt.

Är sånt här som gör att man bara blir så trött på Intel, att de ska hålla på med en massa konstlad produktsegmentering baraföratt av ren girighet.

Det finns massor av varianter av AVX 512 speciellt, och allt sånt här strular till det för både användare och programutvecklare när de gör så här. Star Citizen till exempel startar tydligen inte ens utan AVX; om man kan köpa en ny, modern CPU idag som inte har instruktionsuppsättningen alls så är det faktiskt riktigt jäkla uselt måste jag säga.

Intel kanske tycker att de tjänar mer pengar på att blockera instruktioner som redan finns i processorns kisel, men allt de i slutändan gör är att försämra stödet för senare versioner av AVX speciellt. Om stödet bara finns i ett fåtal processormodeller så saknas incitament att faktiskt använda instruktionerna också även om de kanske skulle gjort nytta.

Hoppas verkligen att AMD gör en fullständig implementation av AVX512 över hela sin produktserie i nästa Ryzen och riktigt fuppar upp Intels fejksegmenterade girighetsvansinne.

Permalänk
Skrivet av anon132576:

Är sånt här som gör att man bara blir så trött på Intel, att de ska hålla på med en massa konstlad produktsegmentering baraföratt av ren girighet.

Det finns massor av varianter av AVX 512 speciellt, och allt sånt här strular till det för både användare och programutvecklare när de gör så här. Star Citizen till exempel startar tydligen inte ens utan AVX; om man kan köpa en ny, modern CPU idag som inte har instruktionsuppsättningen alls så är det faktiskt riktigt jäkla uselt måste jag säga.

Intel kanske tycker att de tjänar mer pengar på att blockera instruktioner som redan finns i processorns kisel, men allt de i slutändan gör är att försämra stödet för senare versioner av AVX speciellt. Om stödet bara finns i ett fåtal processormodeller så saknas incitament att faktiskt använda instruktionerna också även om de kanske skulle gjort nytta.

Hoppas verkligen att AMD gör en fullständig implementation av AVX512 över hela sin produktserie i nästa Ryzen och riktigt fuppar upp Intels fejksegmenterade girighetsvansinne.

Jepp. I just detta fall tror jag Intel fumlade, precis som med alla säkerhetsbuggar, där dom i efterhand tvingades disabla bl.a. TSX och SGX, släppa nya BIOS och drivers som sänkt både CPU och iGPU prestanda, ja tom "hyper threading, för att möta "spekulations/out of order"-buggarna.
Dom kanske hade för avsikt att ge min 5-kärniga CPU AVX i just Sunny cove kärnan, men befintlig mjukvara kommer säkerligen inte visa hänsyn till vilken av de 5 kärnorna som har funktionen, vilket lär leda till krascher. CPU'n blir då en vanskapelse som ej beter sig efter rådande praxis.
Ingen aning dock om läget ser annorlunda ut i tex Linux. Där kanske man kan utnyttja AVX, om det inte är helt disablat, medans det tex kanske är software-disablat i Windows, eller nått.

Bara ren spekulation från min sida, men verkar tyvärr vara så, men de nya Alder Lake CPUerna verkar få en big.LITTLE konfig med AVX och AVX2 över hela brädet. Får se hure blir med AVX512, för det lär inte Gracemont få ...vilket kan leda till något liknande som med min 5-kärniga Lakefield CPU.

Visa signatur

Dator: EEE901 N270/ 1GB / 20GB SSD ... Kraftigt nedbantat/tweakat Win7 x86 for speeeEED!
Facebook användare? Hatar tidslinjen? gå med i denna FB-grupp:
Undo Timeline ...med lite tur får h*lvetet ett slut!

Permalänk
Medlem

Vid det här laget kanske det är dags att börja leka med idén att det är Intel själva som "läcker" all denna information. Varje gång jag besöker Sweclockers (typ en gång i veckan) är det nya rykten om processorer som kan tänkas anlända inom de kommande 3-4 åren.

Väldigt passande att Intel dominerar nyhetsflödet just precis då de faktiskt inte har någon dominerande produktuppsättning till salu. 🤔

Permalänk
Medlem
Skrivet av anon132576:

Är sånt här som gör att man bara blir så trött på Intel, att de ska hålla på med en massa konstlad produktsegmentering baraföratt av ren girighet.

Det finns massor av varianter av AVX 512 speciellt, och allt sånt här strular till det för både användare och programutvecklare när de gör så här. Star Citizen till exempel startar tydligen inte ens utan AVX; om man kan köpa en ny, modern CPU idag som inte har instruktionsuppsättningen alls så är det faktiskt riktigt jäkla uselt måste jag säga.

Intel kanske tycker att de tjänar mer pengar på att blockera instruktioner som redan finns i processorns kisel, men allt de i slutändan gör är att försämra stödet för senare versioner av AVX speciellt. Om stödet bara finns i ett fåtal processormodeller så saknas incitament att faktiskt använda instruktionerna också även om de kanske skulle gjort nytta.

Hoppas verkligen att AMD gör en fullständig implementation av AVX512 över hela sin produktserie i nästa Ryzen och riktigt fuppar upp Intels fejksegmenterade girighetsvansinne.

Instämmer till 100% !
ALLT mycket klokt! 👍

Visa signatur

Hårdvara:
Varierande nog, = onödig information.

Gillar Linux, det kan vara värt vetande. 🙂

Permalänk
Medlem

Ok, verkar således som gamla Sandy får hänga med med ett tag till..
Lite coolt att gå från 32nm, Pci-e 2.0 och ddr3 2133 till det i som sägs artikeln.. XD

Visa signatur

Moderkort: ASUS Crosshair VIII Dark Hero, CPU: R9 5900X @4,4GHz, RAM: Corsair Vengence DDR4 32Gb @3600MHz, GPU: RX7900XT Red Devil, Förvaring: Kingston KC3000 512Gb, WD Black SN750 2TB, Samsung 750 500Gb SSD och 2x Seagate Barracuda 4Tb i raid 1, Ljudkort: Creative Sound Blaster ZxR

Permalänk
Inaktiv
Skrivet av lastninja:

Bara ren spekulation från min sida, men verkar tyvärr vara så, men de nya Alder Lake CPUerna verkar få en big.LITTLE konfig med AVX och AVX2 över hela brädet. Får se hure blir med AVX512, för det lär inte Gracemont få ...vilket kan leda till något liknande som med min 5-kärniga Lakefield CPU.

Intel kunde ju låna från AMDs bulldozer (efter att de lånade "ihoplimmade" processorer också från AMD... ) och dela en AVX512-enhet mellan två (eller kanske fler) "små" kärnor. Då skulle inte programvara krascha iallafall, och man skulle också spara plats på processorkislet.

Sedan får väl windows schemaläggare och även programvaror lära sig att inte alla processorkärnor har lika resurser, så att de inte försöker bre ut en tung programvara över processorns alla trådar, med kass totalprestanda som resultat.

Permalänk
Datavetare

Såg att de första siffrorna för Tremont (nuvarande Atom, föregångaren till Gracemont som kommer i Alder Lake S). IPC mässigt verkar den ligga på lite över 80 % av Skylake i heltal och strax under 70 % i flyttal.

Då det pratats om 25-30 % högre IPC i Gracemont (det var också ungefärliga lyftet från Goldmont till Tremont) ser det faktiskt ut som de "små" kärnorna i Alder Lake mycket väl kan matcha Skylake i IPC!

Skrivet av anon132576:

Är sånt här som gör att man bara blir så trött på Intel, att de ska hålla på med en massa konstlad produktsegmentering baraföratt av ren girighet.

Det finns massor av varianter av AVX 512 speciellt, och allt sånt här strular till det för både användare och programutvecklare när de gör så här. Star Citizen till exempel startar tydligen inte ens utan AVX; om man kan köpa en ny, modern CPU idag som inte har instruktionsuppsättningen alls så är det faktiskt riktigt jäkla uselt måste jag säga.

Intel kanske tycker att de tjänar mer pengar på att blockera instruktioner som redan finns i processorns kisel, men allt de i slutändan gör är att försämra stödet för senare versioner av AVX speciellt. Om stödet bara finns i ett fåtal processormodeller så saknas incitament att faktiskt använda instruktionerna också även om de kanske skulle gjort nytta.

Hoppas verkligen att AMD gör en fullständig implementation av AVX512 över hela sin produktserie i nästa Ryzen och riktigt fuppar upp Intels fejksegmenterade girighetsvansinne.

Givet att du är fullt medveten om det markerade, känns det då inte som Intel endera har kört helt i ut i spenaten med sin SIMD alternativ så är det något som ändrats rätt fundamentalt på senare tid?

Om programmerare skulle behöva explicit anpassa sina program till AVX-512 via assembler (alt. kompilator-intrinsics, vilket i praktiken är en förenklad variant av assembler) skulle det finns väldigt nära noll program som skulle utnyttja AVX-512 givet hur liten delmängd av marknaden som faktiskt har stöd för detta.

I verkligheten är stödet för AVX-512 nog betydligt mer använt än de flesta skulle gissa, så vad är orsaken?

SIMD har nu funnits i ~25 år på x86, under 10-15 av dessa användes det väldigt sparsamt just då det i praktiken krävde att man skrev assembler. Under de senaste åren har två stora förändringar skett

  • Nvidias CUDA har lärt massorna att designa program för SIMD, det är samma grundläggande idéer som gäller för GPGPU som för SIMD på CPU för att nå hög effektivitet, GPUer har högre kapacitet men då hyfsat många problem passar SIMD och samtidigt är latenskänsliga finns en klar poäng med SIMD på CPU också

  • Nvidias CUDA ramverk visade att med relativt små förändringar i hur programmen skrivs kan man lyfta även detta problem bort från assembler och till C/C++ nivå

Den sista punkten har massor med fördelar och det är huvudförklaring till varför Intel kan komma undan med att AVX-512 är ett lapptäcke av olika extensioner, där det känns nästan lite slumpmässigt vilken CPU-modell som råkar implementera vad.

Men precis som GPUer kan skilja sig rätt mycket, både mellan modeller hos samma tillverkare och än mer mellan tillverkare, och ändå köra samma program har man nu nått dit även för SIMD på CPUer.

För att ta ett "hello-world" nivåexempel. Denna funktion tar två lika långa vektorer och beräknar skalärprodukten.

export uniform float dot_ispc( uniform float A[], uniform float B[], uniform float width) { // print("Target width : %\n", TARGET_WIDTH); uniform float res = 0; foreach (i = 0 ... width) { res += reduce_add(A[i] * B[i]); } return res; }

Om man tar bort kommentaren för "print" anropet skulle den variera beroende på om man kör SSE, AVX, AVX-512 eller NEON (Arms variant av SIMD). Faktum är att den kan variera även om man kör säg AVX, då en kompilator översätter detta till assembler öppnar sig en rad nya praktiska möjligheter till optimering. Logiken i koden behöver dock inte ändras alls, den kommer automatiskt att utnyttja de instruktioner man säger till kompilatorn är OK att använda!!

T.ex. kan man välja att köra enklare logik, likt den ovan som i grunden är en multiplikation och en addition per vektor element, "två gånger per var och SIMD-lane" vilket minskar overhead per varv i loopen. Om detta är bra eller dåligt varierar från algoritm till algoritm och även från CPU-modell till CPU-modell, enda som krävs om man använder en kompilator (ISPC i detta fall) är att ändra ett argument till kompilatorn.

OneAPI (som internt använder ISPC) tar det hela ännu ett steg. Där kan samma kod köras på CPU eller GPU, valet kan skjutas upp till körning vilket också inkluderar valet att använda SSE, AVX eller AVX-512!

Väldigt mycket pekar på att Alder Lake inte stödjer AVX-512, detta då Gracement verkar stödja upp till AVX2. Att lägga in AVX-512 i Gracemont skulle vara en rejäl suboptimering, hela poängen med upplägget är att ha högpresterande kärnor som kan använda huvuddelen av strömbudget och kiselbudget, medan de små kärnorna har överlägsen prestanda/W och prestanda/transistor.

Med "modern" användning av SIMD är det en icke-fråga om CPUn råkar ha AVX-512 eller ej, programmen kommer utnyttja AVX-512 om det finns (Sapphire Rapids kommer självklart ha det) och de kommer fungera även fast det inte finns.

Att göra som AMD gjorde i Jaguar och Zen/Zen+, d.v.s. internt implementerade de egentligen bara SSE men det gick ändå att köra AVX instruktioner, kanske verkar "smart". Visst kan man då köra program som använder "nya" instruktioner, men är inte helt ovanligt att effektiviteten per instruktion blir logiskt sett lägre med "bredare" instruktioner vilket kan kompenseras med att de bredare instruktionerna gör mer och körs i stort sätt lika snabbt. Om de i stället "emuleras" i HW kan resultatet bli att programvaran väljer t.ex. AVX som då blir mindre effektivt än att köra SSE då AVX-instruktioner i "emulerade" fallet tar dubbelt så lång tid att köra (totalt sett lägre prestanda om effektivitet per instruktion är lägre för AVX).

Och ju vanligare Arm blir ju sämre idé är det att designa någon programvara direkt i assembler/intrinsics, i alla fall om man inte råkar gilla att spendera massor med resurser på programutveckling.

ISPC används för övrigt redan av spelmotorer, det har varit integrerat i Unreal Engine ett bra tag då det passar perfekt till att optimera saker som fysikberäkningar och animationer.

Skrivet av lastninja:

AVX och AVX2 över hela brädet. Får se hure blir med AVX512, för det lär inte Gracemont få ...vilket kan leda till något liknande som med min 5-kärniga Lakefield CPU.

Det finns idéer kring hur man skulle kunna hantera big.LITTLE designer där de två typer av kärnor stödjer lite olika "extrainstruktioner". I grunden bygger dessa idéer på att om en kärna kör en instruktion den inte stödjer blir det ju en anrop in i OS-kärnan (så fungerar det redan idag), man skulle då kunna lägga till logik i kärnan som analyserar om den instruktionen kan köras av någon annan kärna i systemet. Om svaret är "nej" ska programmet krascha, om svaret är "ja" skulle man rent teoretiskt kunna begränsa det programmet till den delmängden av kärnor som stödjer instruktioner och köra vidare.

Så vitt jag känner till har ingen implementerat ovan utanför experimentstadiet, vilket betyder att big.LITTLE designer kräver att alla CPU-kärnor måste kunna köra samma instruktioner, de kan däremot vara rätt olika effektiva på det. Arm kräver detta i sin big.LITTLE teknik (som sedan ett år tillbaka kallas DynamIQ).

Lakefield är ett testskott, en typisk v1.0 produkt. Den har tyvärr begränsningar som tekniken i sig inte medför. Huvudnumret för Lakefield var ju att få ut något på marknaden (och många spekulerade i att det var en av flera saker Intel primärt designat för att behålla Apple).

Att SMT inte används på den "stora" kärnan måste bara vara en förenkling, den begränsningen är borta i Alder Lake S.

Största bristen i Lakefield är att det bara verkar vara en frekvensdomän över alla CPU-kärnor. Det försämrar huvudpoängen med big.LITTLE en hel del, man vill ju köra latenskritiska saker på stora och högt klockade kärnor då latenskritiska saker tyvärr tendera skala uselt med flera kärnor -> enda möjliga förbättringen är högre enkeltrådprestanda. Har inte Intel fixat detta i Alder Lake S är det en totalflopp, men det kommer vara fixat (Arm har aldrig haft detta problem i sin design).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Skrivet av Yoshman:

Största bristen i Lakefield är att det bara verkar vara en frekvensdomän över alla CPU-kärnor. Det försämrar huvudpoängen med big.LITTLE en hel del, man vill ju köra latenskritiska saker på stora och högt klockade kärnor då latenskritiska saker tyvärr tendera skala uselt med flera kärnor -> enda möjliga förbättringen är högre enkeltrådprestanda. Har inte Intel fixat detta i Alder Lake S är det en totalflopp, men det kommer vara fixat (Arm har aldrig haft detta problem i sin design).

Första recensionerna av Lakefield gav kanske inte fullt så representativa resultat av prestanda... Enligt notebookchecks recension av Galaxy book S så kan Samsung ha sänkt TDP till 5W:

Skrivet av Notebookcheck:

Performance - Galaxy Book S with reduced TDP
The Intel Lakefield hybrid processor is brand-new, and many tools still have problems to show accurate data. In theory, the Core i5-L16G7 has a TDP of 7 watts (9.5W Burst). According to our information from Intel, however, Samsung reduced the PowerLimit 1 from 7 to 5 watts (PL2 still at 9.5W). This means the following results are not representative of the performance of the Lakefield processor if it runs with the specified 7/9.5 watts.

Note: Shortly after the original German review of the Galaxy Book S was published, we got an official statement from Samsung regarding the power consumption of the Lakefield processor. It states that Samsung is planning to increase the TDP from 5 to 7 watts with an update within the next two weeks.

Hur det påverkar frekvenser och boost har jag ingen aning om dock.
resultaten på Passmark är ganska intressanta då man kan se 5 senaste baselines och konstatera att Lenovo laptops med samma CPU presterar 20% bättre i CPU-testet.
Detta kan iaf vara värt att ha i åtanke.

Det du nämner om frekvensdomäner är en av anledningarna varför jag vill ta manuell kontroll över denna o göra lite tester. Mest för att få den att gå ännu svalare o maxa batteritid (redan superbra på båda punkter enligt recensioner, men kan svajja vid tyngre laster).

Min Skull Canyon NUC har jag undervoltat och sänkt maxclocken till någonstans mellan 2.ghz och 2.4ghz (Skull canyon erbjuder riktigt bra möjligheter att konfa kärnor individuellt) och resultatet blev bl.a. att "4k youtube" gått ner från 75W till typ 25-30W, enligt watt-mätaren i vägguttaget, och självfallet tystare drift. Skylake har ju ej VP9 hw acc, till skillnad från Kaby lake o framåt. Uppspelningen går mao till stor del på CPU'n och det ser alldeles förträffligt ut oavsett 2ghz eller 3.4ghz, men jag antar att CPU'n vill maxa till 3.4ghz och 75W för att ge bättre marginaler till övrig parallellt körande software under videouppspelning, vilket jag ej anser behövs.

Vill göra något liknande med min Galaxy Book S, att hålla den på bare minimum frekvenser i alla scenarion så långt det går. Har ju inget AV, WU eller andra background tasks ändå på mina laptops, så det kommer säkert flyta fint så länge man endast kör lätta aktiviteter, och bjuder säkert på många extra timmar batteri. Får väl se om jag undviker den där BIOS uppdateringen också som höjer TDP från 5W till 7W, kan ev göra mer skada än nytta.

Visa signatur

Dator: EEE901 N270/ 1GB / 20GB SSD ... Kraftigt nedbantat/tweakat Win7 x86 for speeeEED!
Facebook användare? Hatar tidslinjen? gå med i denna FB-grupp:
Undo Timeline ...med lite tur får h*lvetet ett slut!