Intel "Alder Lake" med 16 kärnor i upp till 4,6 GHz tittar fram

Permalänk
Cylon

Intel "Alder Lake" med 16 kärnor i upp till 4,6 GHz tittar fram

Ett tidigt ingenjörsexemplar avslöjar detaljer om skillnaden på klockfrekvenser mellan "stora" och "små" kärnor.

Läs hela artikeln här

Permalänk

Blir intressant. Jag har i drygt 20år trott att för många tillämpningar så behövs det inte vara samma kärnor, men sett svårigheten i att få till det mer generellt. Om man har en lösning där man hårdkodar att vissa processer endast ska köra på vissa kärnor. Och det i dessa processer i princip inte existerar någon flyttalsberäkningar, så skulle dessa kärnor ej behöva ha en kraftfull sådan del.

Problemet är att processorn bör fungera bra generellt och för den stora skaran. Där jag ser big och little som ett bra alternativ. Då väldigt många datorer är igång utan att göra något större, för att sedan någon timma på kvällen kanske dra igång ett spel.
Jag personligen vill kalla big little lösningar för att endast ha det kärnantal som de har stora kärnor. Även om småttingarna såklart hjälper till och beroende på utformning så olika mycket. I extremfallet så tolkar jag det som att man skiftar aktiva kärnor.

*edit*
Samma sak är det med instruktioner som AVX512. Om man har en lösning där endast 2st trådar kommer utnyttja dessa instruktioner, så skulle inte alla kärnor behöva ha tillgång till dem om man hårdkodar sin applikation.
Problemet är dock den generella lösningar som blir bra för många. I detta fall med Aldler lake så får nog de små kärnorna ej tillgång till AVX512.

Permalänk
Medlem

Undrar när mjukvara för x86 "kommer ikapp" för flertrådat. Idag verkar det extremt snårigt att kunna skala utnyttjandet på ett effektivt vis. Ett spel kan ju säkert använda 6-8 trådar men sällan nära full belastning. Man kanske dedicerar en kärna till att hantera ljud, ett par till fysik, osv.

Det verkar inte vara ett enkelt problem att lösa, så varför släpper man CPUer med fler kärnor som lösningen på att kunna öka prestanda när den oftast stannar som teoretisk?

Permalänk
Medlem

Sugen på att uppgradera men känns som spel kommer ha svårt att avgöra vilka kärnor som ska användas och inte.

Permalänk
Medlem
Skrivet av lillaankan_i_dammen:

Blir intressant. Jag har i drygt 20år trott att för många tillämpningar så behövs det inte vara samma kärnor, men sett svårigheten i att få till det mer generellt. Om man har en lösning där man hårdkodar att vissa processer endast ska köra på vissa kärnor. Och det i dessa processer i princip inte existerar någon flyttalsberäkningar, så skulle dessa kärnor ej behöva ha en kraftfull sådan del.

Problemet är att processorn bör fungera bra generellt och för den stora skaran. Där jag ser big och little som ett bra alternativ. Då väldigt många datorer är igång utan att göra något större, för att sedan någon timma på kvällen kanske dra igång ett spel.
Jag personligen vill kalla big little lösningar för att endast ha det kärnantal som de har stora kärnor. Även om småttingarna såklart hjälper till och beroende på utformning så olika mycket. I extremfallet så tolkar jag det som att man skiftar aktiva kärnor.

*edit*
Samma sak är det med instruktioner som AVX512. Om man har en lösning där endast 2st trådar kommer utnyttja dessa instruktioner, så skulle inte alla kärnor behöva ha tillgång till dem om man hårdkodar sin applikation.
Problemet är dock den generella lösningar som blir bra för många. I detta fall med Aldler lake så får nog de små kärnorna ej tillgång till AVX512.

Utan att veta någonting om den här saken, men är det inte så det är i en del mobiler? Exempelvis 4st lägre klockade & 4st högre klockade kärnor?

Permalänk
Medlem
Skrivet av 93Clocker:

Sugen på att uppgradera men känns som spel kommer ha svårt att avgöra vilka kärnor som ska användas och inte.

detta är dock inget som spelen gör utan är upp till windows schedueler att ange vilka kärnor som ska belastas vid tunga eller lätta laster.

Permalänk
Medlem
Skrivet av Bael:

Utan att veta någonting om den här saken, men är det inte så det är i en del mobiler? Exempelvis 4st lägre klockade & 4st högre klockade kärnor?

Njaa snarare mer eller mindre alla big little har varit mer eller mindre standard för mellan segmentet och high end sen 2014

Edit: lite fel på datum, sen 2015 ^^ snapdragon 808 och 810 samt 615 och 616 så vi snackar Nexus 6p och galaxy s6 tiden (även s6an med deras Exynos processor va en så kallad big little processor)

Permalänk
Medlem
Skrivet av The Kristoffer:

Undrar när mjukvara för x86 "kommer ikapp" för flertrådat. Idag verkar det extremt snårigt att kunna skala utnyttjandet på ett effektivt vis. Ett spel kan ju säkert använda 6-8 trådar men sällan nära full belastning. Man kanske dedicerar en kärna till att hantera ljud, ett par till fysik, osv.

Det verkar inte vara ett enkelt problem att lösa, så varför släpper man CPUer med fler kärnor som lösningen på att kunna öka prestanda när den oftast stannar som teoretisk?

Prestandaförbättringarna från när Intel tyckte att 4 kärnor dög ("640K ought to be enough for anybody."), och när AMD började elda i stjärten har nu gjort att exempelvis Steam Hardware Survey (som förövrigt är det bästa som finns på internet) 6 men framförallt 8 kärnor numera börjar bli standard. Denna övergången kommer att ta många år men redan nu ser man enorma prestandaförbättringar med fler kärnor än 4, då fler utvecklare och framförallt verktygen för att utveckla flertrådat har mognat.

Ytterligare fördelar är just det att om du har 4 kärnor kommer samtliga 4 att ha fullt upp med att köra ditt spel, har du 6 så gäller samma, men övriga processer kan glida på resterande två. Detta ger fördelar som att exempelvis kunna dubbelkolla Mortarmap i Firefox samtidigt som du spelar Squad. (Sen är detta en värdelös jämförelse då Squad är notoriskt entrådat, men du förstår min poäng).
Sen finns hela den stora poängen att din dator faktiskt kan göra tyngre saker än bara spela spel, vilket är bra det med

Skrivet av 93Clocker:

Sugen på att uppgradera men känns som spel kommer ha svårt att avgöra vilka kärnor som ska användas och inte.

^
This. Tänk vad det kommer att göra med Indie-scenen... (Utvecklingskostnader etc, har ingen aning dock)

Permalänk
Skrivet av The Kristoffer:

Undrar när mjukvara för x86 "kommer ikapp" för flertrådat. Idag verkar det extremt snårigt att kunna skala utnyttjandet på ett effektivt vis. Ett spel kan ju säkert använda 6-8 trådar men sällan nära full belastning. Man kanske dedicerar en kärna till att hantera ljud, ett par till fysik, osv.

Det verkar inte vara ett enkelt problem att lösa, så varför släpper man CPUer med fler kärnor som lösningen på att kunna öka prestanda när den oftast stannar som teoretisk?

Frågan ur dagens spel synvinkel blir lite felställd. Förr i tiden när t.ex crash Bandicoot gjordes så la speltillverkarna av det spelet ner otroligt tid på att leta upp sätt att få fram resuser från psx som Sony inte ville att de egentligen ens skulle komma åt, sedan funderade de på vad de kunde använda dessa resurser till.

Idag är det mer att de har en spelidé och de försöker lösa detta problem så bra som de kan. Det är inte så mycket fokus på att vi har resurser över som inte används, vad för roligt kan vi göra av dessa.

Jag tänker även tillbaka till Snes, där vissa spelkonsoler hade ett extra chip i sig som Super FX

Permalänk
Medlem

Bättre än Icestorm map prestanda

Gracemont-kärnorna i 3 GHz imponerar inte om man vill ha prestanda. Troligen är Gracemont mycket lik Tremont och den ser ut att vara bättre än Apples lilla CPU. Uppgifter on ROB (retire buffert) finns ute 208 för Tremont och 111 för Icestorm. Frågan är dock om inte 4 GHz krävs.....

Permalänk
Medlem

Om de svaga kärnorna är nära Skylake i prestanda lär det ju duga gott för vardagssysslor.

Det lite knepiga är ju windows schemaläggare. Om Intel nu måste göra samma resa där som AMD gjorde med Ryzen så lär det ta ett par patchar innan det blir bra. Men det är hur som helst spännande att Intel har något nytt att komma med på riktigt. Ska man vara snäll får man ju säga att 11000-serien fick ett ljummet mottagande av användare såväl som recensenter. Så man får hoppas för konkurrensen skull att detta blir bra mycket bättre.

Permalänk
Medlem
Skrivet av Ozzed:

Om de svaga kärnorna är nära Skylake i prestanda lär det ju duga gott för vardagssysslor.

Det lite knepiga är ju windows schemaläggare. Om Intel nu måste göra samma resa där som AMD gjorde med Ryzen så lär det ta ett par patchar innan det blir bra. Men det är hur som helst spännande att Intel har något nytt att komma med på riktigt. Ska man vara snäll får man ju säga att 11000-serien fick ett ljummet mottagande av användare såväl som recensenter. Så man får hoppas för konkurrensen skull att detta blir bra mycket bättre.

Windows schemaläggare ska ju redan vara klart för detta i.o.m. intels Lakefield.

Permalänk
Medlem

24 trådar kan kanske sägas vara ovanligt, men knappast som i artikeln ett ”udda antal”.

Permalänk
Medlem

Mer kärnor åt folket. 16 kärnor, av varierande slag, är säkert snart standard.

Jag är ingen gamer men har hoppat på först tvåkärnig cpu Athlon 64 x2 och sedan core i5 760; båda två mellanprisade på budgetmoderkort. Sedan stoppade det som vi vet ganska rejält på konsumentsidan, jag har haft/har nån 6-kärnig AMD (före Ryzen) som inte gör någon glad, men bättre än 4-kärnig AMD åtminstone.

Mitt användningsområde är främst förhärdad slösurfning, kombinerat med 1-2 VM, en nedladdningsklient kanske, lite x264-konverteringar och redigering med avisynth ibland. Skulle gärna ha fler kärnor, min 2600k är dock ok för allt utom längre kodningar av x264 känner jag.

Permalänk
Medlem

Ganska klena frekvenser när 5950X har stora kärnor och håller väl ca 4GHz hela vägen till 16?

Permalänk
Medlem
Skrivet av medbor:

Ganska klena frekvenser när 5950X har stora kärnor och håller väl ca 4GHz hela vägen till 16?

Citat:

Då det handlar om ett tidigt exemplar är det troligt att de maximala klockfrekvenserna lägger sig på en högre nivå vid lansering. Att det rör sig tidigt kisel märks inte minst på att den låga basfrekvensen 1,8 GHz flankeras av ett TDP-värde om 125 W, med en strömförbrukning som under kortare perioder kan toppa 228 W (PL2).

Men ja, vi får se hur det blir vid release.

Permalänk
Medlem
Skrivet av ClintBeastwood:

Men ja, vi får se hur det blir vid release.

Absolut så, jag bara menade att det kändes lite lågt. Risken finns ju att dessa stora kärnor drar uppåt 50W stycket vid höga frekvenser, då blir det svårt...

Permalänk
Snusfri

Mycket intressant detta, hoppas att vi inte får vänta allt för länge.

Permalänk
Medlem
Skrivet av norrby89:

detta är dock inget som spelen gör utan är upp till windows schedueler att ange vilka kärnor som ska belastas vid tunga eller lätta laster.

Frågan kvarstår fortfarande.

Permalänk
Datavetare

Varför skulle det vara så svårt att få ordning på schemaläggaren?

Det som Intel och framförallt AMD gjort som rejält strular till det för OS-schemaläggaren är att de inte längre bygger kretsar där alla CPU-kärnor har samma maxfrekvens. I Intels fall finns saker som TVB och TB3.0, i AMDs fall kan i stort sätt varje kärna ha en unik maxfrekvens och det AMD jobbat med är att få till så Windows prioriterar de snabbaste kärnorna vid "rätt" tillfälle.

Jämfört med det är Alder Lake en parkpromenad. Faktum är att det egentligen redan är ett löst problem då man kan se det som en extension av hur SMT hanteras.

Ta en modern Intel/AMD CPU med SMT stöd. Antag vidare att alla kärnor har samma maximala frekvens. Fint homogent system, eller hur?...

Vad händer när man ska schemalägga tråd #2? Redan där måste man hantera att CPUn är asynkron, om man lägger den tråden på "andra" tråden hos den CPU som redan har en tråd aktiv får man endast 0-30 % effekt medan det blir ~100 % effekt om man väljer en annan CPU-tråd (om vi antar trivialt parallella problem).

Schemalägga något som Alder Lake är samma sak: först lägger man jobb på ena tråden på de "stora" kärnorna, sedan börjar man lägga jobb på de små kärnorna och i sista läget lägger man det på andra tråden hos de "stora" kärnorna.

Det blir rätt mycket som SMT, fast man har tre steg i stället för två.

Och varför ska inte Microsoft Windows kunna hantera "big/little" när Linux/Android och iOS/MacOS hanterat det galant idag?

Schemaläggning på specifika CPU-trådar är, utanför väldigt specifika fall som rimligen bara är relevant på inbyggda-system, är en uppgift för OS-kärnan. Det lägger inget merarbete på applikation/spel-utvecklare.

Däremot ligger jobbat att utveckla programvara som kan utnyttja flera kärnor nästan helt på applikation/spel-utvecklare. OS:et kan hjälpa till, vilket även CPU/ISA-design kan göra (allt annat lika så skalar program bättre på ARM64 jämfört med både ARM32 och x86/x86_64, men ARM64 är fortfarande ingen silverkula).

Permalänk
Medlem
Skrivet av Yoshman:

Och varför ska inte Microsoft Windows kunna hantera "big/little" när Linux/Android och iOS/MacOS hanterat det galant idag?

Windows hanterar redan big/little utan problem.

Permalänk
Medlem
Skrivet av Yoshman:

Varför skulle det vara så svårt att få ordning på schemaläggaren?

Det som Intel och framförallt AMD gjort som rejält strular till det för OS-schemaläggaren är att de inte längre bygger kretsar där alla CPU-kärnor har samma maxfrekvens. I Intels fall finns saker som TVB och TB3.0, i AMDs fall kan i stort sätt varje kärna ha en unik maxfrekvens och det AMD jobbat med är att få till så Windows prioriterar de snabbaste kärnorna vid "rätt" tillfälle.

Jämfört med det är Alder Lake en parkpromenad. Faktum är att det egentligen redan är ett löst problem då man kan se det som en extension av hur SMT hanteras.

Ta en modern Intel/AMD CPU med SMT stöd. Antag vidare att alla kärnor har samma maximala frekvens. Fint homogent system, eller hur?...

Vad händer när man ska schemalägga tråd #2? Redan där måste man hantera att CPUn är asynkron, om man lägger den tråden på "andra" tråden hos den CPU som redan har en tråd aktiv får man endast 0-30 % effekt medan det blir ~100 % effekt om man väljer en annan CPU-tråd (om vi antar trivialt parallella problem).

Schemalägga något som Alder Lake är samma sak: först lägger man jobb på ena tråden på de "stora" kärnorna, sedan börjar man lägga jobb på de små kärnorna och i sista läget lägger man det på andra tråden hos de "stora" kärnorna.

Det blir rätt mycket som SMT, fast man har tre steg i stället för två.

Och varför ska inte Microsoft Windows kunna hantera "big/little" när Linux/Android och iOS/MacOS hanterat det galant idag?

Schemaläggning på specifika CPU-trådar är, utanför väldigt specifika fall som rimligen bara är relevant på inbyggda-system, är en uppgift för OS-kärnan. Det lägger inget merarbete på applikation/spel-utvecklare.

Däremot ligger jobbat att utveckla programvara som kan utnyttja flera kärnor nästan helt på applikation/spel-utvecklare. OS:et kan hjälpa till, vilket även CPU/ISA-design kan göra (allt annat lika så skalar program bättre på ARM64 jämfört med både ARM32 och x86/x86_64, men ARM64 är fortfarande ingen silverkula).

Jo, men här är det väl lite mer komplext. Om man vill spara energi (som verkar vara hela meningen med de svagare kärnorna) så måste man på nått sätt veta om tråden är tidskritisk eller ska dra låg effekt (eller båda) så man vet om man ska lägga den på den svagare kärnan direkt. Även om tråden är tidskritisk så kanske även en svagare kärna är tillräckligt snabb för att uppfylla tids-kraven.

Så vill man minimera energiförbrukningen så finns det lite mer att fundera på.

Permalänk
Datavetare
Skrivet av SAFA:

Jo, men här är det väl lite mer komplext. Om man vill spara energi (som verkar vara hela meningen med de svagare kärnorna) så måste man på nått sätt veta om tråden är tidskritisk eller ska dra låg effekt (eller båda) så man vet om man ska lägga den på den svagare kärnan direkt. Även om tråden är tidskritisk så kanske även en svagare kärna är tillräckligt snabb för att uppfylla tids-kraven.

Så vill man minimera energiförbrukningen så finns det lite mer att fundera på.

Poängen på desktop är rimligen inte att spara ström, inte i den bemärkelse som man normalt menar på bärbara enheter. Poängen är primärt att moderna x86 CPUer drar direkt idiotisk mängd ström vid maxfrekvens, både Intel och AMD har peak-effekt på ~50 W per kärna vilket gör det totalt omöjligt att hålla maxfrekvens när fler kärnor lastas.

Så huvudpoängen med "big/little" på desktop är att 100-150 W TDP börjar faktiskt bli en rejäl flaskhals när man går mot 12-16 kärnor. Visst kan man justera ned frekvensen på "stora" kärnor för att hålla sig inom budget, men det har flera nackdelar.

T.ex. uppför sig 5950X faktiskt sämre under maxlast jämfört med 5800X för det som befinner sin i förgrunden då den förra måste klocka ned sig mer -> latenskänsliga applikationer uppför sig sämre. Ångrar inte valet av 5950X i jobbdatorn, men den uppför sig i vissa fall faktiskt rätt illa jämfört med t.ex. MacMini M1 när alla CPU-trådar är 100 % lastade, även om de kör på låg prio, hela desktop kan börja "lagga" rejält. På MacMini M1 går det inte att märka skillnad i t.ex. webbläsaren oavsett om CPU i övrigt är 0 % eller 100 % lastad, de stora kärnorna går alltid på 3,2 GHz oavsett last.

Nu tror jag i.o.f.s. de värsta fallen av "lagg" är mer Windows fel, de händer bara när bakgrundsprocesserna tar 100 % CPU och de samtidigt har viss I/O både över nätverk och disk (men långt ifrån att nå 100 % I/O-kapacitet).

För att optimera för batteritid har Windows ett fundamentalt problem: OS kan inte automagiskt veta om en applikation är "bakgrundsprocess" eller en latenskänslig tråd. Linux har heuristik för att göra en kvalificerad gissning, men riktigt bra blir det först när man som i Android, iOS/MacOS kan explicit säga vilken typ av applikation det handlar om (bakgrundsapplikation eller interaktiv applikation).

Men i fallet Alder Lake S handlar det, utan om att med en mix av stora och små kärnor kan de stora kärnorna få merparten av TDP-utrymmet -> bättre för latenskänsliga applikationer, samtidigt som de små kärnorna helt optimeras för perf/W (vilket tyvärr ger sämre peak-prestanda -> inte optimalt för latenskritiska laster) och därmed maximerar total prestanda för saker som skalar perfekt för CPU-kärnor.

(Desktop) Windows har redan i dag en "hård" prioritering av den applikation som har input-fokus -> helt klart ska den få första tjing på första tråden på varje "stor" kärna. Är ju det saker som AMDs "best core" och Intels TVB utnyttjar för att avgöra vad den snabbaste kärnan bör köra.

På det stora hela blir det samma problematik som SMT, fast nu med tre nivåer i stället för två.

  • bäst prestanda har första tråden på varje "stor" kärna

  • näst bäst prestanda har de "små" kärnorna

  • i botten ligger att köra "andra" tråden på de stora kärnorna, detta har också negativ påverkan på den tråd som tidigare körde själv på kärnan, framförallt om den är latenskritisk. Tror det är här M1 riktigt slår AMD/Intel på fingrarna under hög last, "stora" kärnorna har inte SMT så de klockar inte ned sig och dras inte ned av att "annat" körs på samma kärna som din interaktiva last

Edit: en allt oftare förekommande rykte är ju att Zen5 i alla fall delvis blir "big/little". Om/när det händer kör i praktien alla med tekniken.