Intel Core i7-11700K deliddas – kretsen större än hos tiokärniga Core i9-10900K

Permalänk
Melding Plague

Intel Core i7-11700K deliddas – kretsen större än hos tiokärniga Core i9-10900K

Under värmespridaren hos Core i7-11700K avslöjas nu att åtta kärnor "Cypress Cove" kräver betydligt mer kisel än tio kärnor "Skylake".

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Trollfabrik 🫶🏻

Hade räknat med en större krets och i allra bästa fall liknande 10-kärniga Comet Lake, men inte att skillnaden skulle vara så pass stor. Ska bli intressant att se hur stor en Cypress Cove-kärna, som är en backport av Sunny Cove på 10 nanometer, egentligen är.

Visa signatur

Kontaktas enklast via PM. Önskas svar i forumet citera mina inlägg eller pinga @Jacob. Finns även på Twitter.

"Science and technology have progressed to the point where what we build is only constrained by the limits of our own imaginations." – Justin R. Rattner

Permalänk

Om kretsen nu blir så färbannat stor, varför inte då skippa den integrerade grafiken helt?

Visa signatur
Permalänk
Inaktiv
Skrivet av IKEA Billy Bokhylla:

Om kretsen nu blir så färbannat stor, varför inte då skippa den integrerade grafiken helt?

För att intel har gått all in i deras satsning på XE grafik. Intel var mästare på processorer. För att utöka deras vinst och marknad så ville de ta över hela GPU marknaden hos företagskunder. Tänk dig hela datorhallar och cluster av XE grafik. Det är stora pengar som intel kan håva in. De dåliga chipsen som blir över kan de sälja till konsumenter för att konkurrera med AMDs integrerade grafik.

AMDs integrerade grafik var det enda bra med AMDs produkter innan de gick om intel i processorprestanda. Denna produkt var planerad för flera år sedan när intel var världsledande. Nu när AMD har gått om intel i prestanda så kan XE grafik, AVX-512 och deras satsning på diversity och inclusion se rätt så dumt ut. En normal VD skulle nog ha prioriterat att få 10nm klart i tid.

Permalänk
Medlem
Skrivet av IKEA Billy Bokhylla:

Om kretsen nu blir så färbannat stor, varför inte då skippa den integrerade grafiken helt?

Fanns ju tider när det var så och av någon orsak så tycker både AMD och Intel att grafik ska ingå.

Det kanske helt enkelt inte är värt att designa om för toppen, grafiken kanske sitter i så hårt att det inte är värt besväret att släppa top SKUs utan (vet att Intel F finns men där är väl grafiken bara avaktiverad, troligen pga defekt från fabrik?).

Sen är det ju grymt för kontor osv att grafiken ingår och det är där man hämtar pengarna. Vi som köper 11700k, 11900k osv är inte kunderna som gör Intel rika. Dock kanske vi köper in 1000 Intel datorer till jobbet för att vi är nöjda med den vi har hemma

Visa signatur

i9 11900k ||32GB 4000MHz CL15||ASUS ROG STRIX Z590-E||Noctua NH-D15s
Intel Arc a750 ||Samsung 980 pro|| EVGA Supernova G3 850W
Asus xonar essence STX|| Lian-Li O11 Dynamic XL
Asus VG27AQ 165Hz IPS, Sennheiser HD650, Logitech g502 Hero, fUnc f30r, Vortex TAB90M, Audio-Technicha ATR2500x-USB
Server: x10SL7-F, Xeon E3 1230v3, 32GB Samsung ECC ram, 6x3TB WD RED, FD Node 804.

Permalänk
Medlem
Skrivet av Jacob:

Hade räknat med en större krets och i allra bästa fall liknande 10-kärniga Comet Lake, men inte att skillnaden skulle vara så pass stor. Ska bli intressant att se hur stor en Cypress Cove-kärna, som är en backport av Sunny Cove på 10 nanometer, egentligen är.

Vad blir skalningen om vi jämför motsvarande krets på 10nm (laptop-kretsarna) eller fanns de inte med 8 kärnor?

Antagligen har de inte tokoptimerat dessa dock, bara sett till att de får något som fungerar. 14nm kisel är ju billigt för intel tänker jag...

Permalänk
Medlem
Skrivet av IKEA Billy Bokhylla:

Om kretsen nu blir så färbannat stor, varför inte då skippa den integrerade grafiken helt?

För att i ganska så många år nu har Intel kunnat låta sina köpare betala för oanvänt kisel.
Och utvecklingstiden är för lång för att dom skall ha haft tid att ändra på det.
Helt klart så tog Ryzen Intel på sängen och vi får nog vänta ett litet tag till innan vi ser Intels riktiga svar på den.

Permalänk
Skrivet av anon185723:

För att intel har gått all in i deras satsning på XE grafik. Intel var mästare på processorer. För att utöka deras vinst och marknad så ville de ta över hela GPU marknaden hos företagskunder. Tänk dig hela datorhallar och cluster av XE grafik. Det är stora pengar som intel kan håva in. De dåliga chipsen som blir över kan de sälja till konsumenter för att konkurrera med AMDs integrerade grafik.

AMDs integrerade grafik var det enda bra med AMDs produkter innan de gick om intel i processorprestanda. Denna produkt var planerad för flera år sedan när intel var världsledande. Nu när AMD har gått om intel i prestanda så kan XE grafik och AVX-512 se rätt så dumt ut.

Skrivet av Svensktiger:

För att i ganska så många år nu har Intel kunnat låta sina köpare betala för oanvänt kisel.
Och utvecklingstiden är för lång för att dom skall ha haft tid att ändra på det.
Helt klart så tog Ryzen Intel på sängen och vi får nog vänta ett litet tag till innan vi ser Intels riktiga svar på den.

Håller inte med alls. Andelen kisel på en 11***K-krets som slösas på grafik är kisel som kunde gått till massor med fler processorer. Här pratar vi heller inte några serverprocessorer utan desktop.

25% av en 10900K är iGPU. Intel får bara 5-6% mer betalt för en 10900K jämfört med 10900KF (utan grafik).

Visa signatur
Permalänk
Medlem
Skrivet av IKEA Billy Bokhylla:

Håller inte med alls. Andelen kisel på en 11***K-krets som slösas på grafik är kisel som kunde gått till massor med fler processorer. Här pratar vi heller inte några serverprocessorer utan desktop.

25% av en 10900K är iGPU. Intel får bara 5-6% mer betalt för en 10900K jämfört med 10900KF (utan grafik).

Fast KF har ju samma kisel men grafikdelen är bortskuren.
Så den modellen är ju ännu värre, du betalar för kisel du inte kan använda ens i nödfall

AMD spenderare en hel massa kisel på stooora caches.
Och vad gillar spel? stooora caches såklart!
Jag menar 16MB L3 vs 32MB per CCD.

Intel snubblade ju själva på en lösning med Broadwell H.
128MB cache som var tänkt till grafikdelen, men även fungerade utmärkt som L4 cache.
Resultatet? bästa spelprocessorn (trots drastiskt lägre klockfrekvenser) ända tills 8700K dök upp 2 år senare.

Permalänk
Skrivet av Svensktiger:

Fast KF har ju samma kisel men grafikdelen är bortskuren.
Så den modellen är ju ännu värre, du betalar för kisel du inte kan använda ens i nödfall

AMD spenderare en hel massa kisel på stooora caches.
Och vad gillar spel? stooora caches såklart!
Jag menar 16MB L3 vs 32MB per CCD.

Intel snubblade ju själva på en lösning med Broadwell H.
128MB cache som var tänkt till grafikdelen, men även fungerade utmärkt som L4 cache.
Resultatet? bästa spelprocessorn (trots drastiskt lägre klockfrekvenser) ända tills 8700K dök upp 2 år senare.

Alltså. På ett 300mm kisel-wafer som intel använder hade de fått ut 38% fler kretsar om de skippade grafiken på ett 10900K. Vet du vad en kisel-wafer kostar?

Visa signatur
Permalänk

Förutom den integrerade grafiken så så tar väl x86an betydligt större plats än arm. Och vi går emot en trend att det blir alltmer svårare att krympa. Vissa pratar om 3nm, men även om de skulle krympa ner till 0,1nm så behöver de ändå krympa mer för att fortsätta bygga kraftigare cpuer och då är det verkligen stora problem med kvantmekaniken.

Permalänk
Medlem
Citat:

åtta kärnor "Cypress Cove" kräver betydligt mer kisel än tio kärnor "Skylake"

Vet vi detta med säkerhet, eller är det iGPUn som gör att kretsen är större?

Permalänk
Medlem
Skrivet av lillaankan_i_dammen:

Förut den integrerade grafiken så så tar väl x86an betydligt större plats än arm. Och vi går emot en trend att det blir alltmer svårare att krympa. Vissa pratar om 3nm, men även om de skulle krympa ner till 0,1nm så behöver de ändå krympa mer för att fortsätta bygga kraftigare cpuer och då är det verkligen stora problem med kvantmekaniken.

det var redan ett problem på 28 nm med läckage mellan transistorer, Sen kanske man skulle kunna ändra teknik istället för att fortsätta med samma material, teknik bara krympa kisel.
När kisel inte går att krympa mer (kanske de redan vet vad) så kanske fotoner, utveckling av kvant-tekniken, eller nåt helt annat.
Fast först lär vi väl se en hel del limmande & staplade av kisel innan det dyker upp nåt nytt .Staplande & limmande lär nog bli vad vi ser de närmsta 10åren . Sen är väl amd s kisel hälften casheminne för att motverka latencyt man får när man limmar kisel. vilket verkar vara ett bekymmer när det gäller limmande,vilket de har löst ganska bra med ryzen & dess gigantiska casheminne. Men det kostar en del plats på processorerna oxå. Arm har väl knappt nåt cashe i sina processorer (förutom apple då)

(detta innehåller troligtvis faktafel har ej kollat utifall arm har litet cashe eller apple mer, eller om det stämmer med 50 % cashe yta på amd s processor utan bara lite tankar & vad man tror, det man snappat upp inom detta område)

P.S Lite konstigt att säga arm kontra x86 borde väl snarare vara arm kontra atom kärnorna vilket är mer jämförbara.
(om du med arm menar de vanliga standard kretsarna. & inte deras kretsar som är riktade mot servrar så är de inte lika små heller.) Sen om kretsen är liten eller stor spelar inte mig någon roll bara priset är vettigt,prestandan finns där & det går att kyla kretsen.

Visa signatur

Arne Berg

Permalänk
Inaktiv

Kan det va 32nm de kör igen, 2st ihoplimmade 2600k de skrämt upp. 😜

Permalänk
Medlem
Skrivet av IKEA Billy Bokhylla:

Om kretsen nu blir så färbannat stor, varför inte då skippa den integrerade grafiken helt?

Jag behöver en ny sekundär dator. Ett av kraven är att den kan spela upp film, nu och ett gäng år framöver. Intel Xe ser riktigt bra ut med t.o.m AV1 stöd.

För tillfället har jag en inte allt för gammal gaming laptop med 965m grafik. Den klarar ju inte ens h265 i hårdvara, så det misstaget skall inte göras igen.

Tror iofs jag väntar på Alder Lake

Permalänk
Skrivet av Lussarn:

Jag behöver en ny sekundär dator. Ett av kraven är att den kan spela upp film, nu och ett gäng år framöver. Intel Xe ser riktigt bra ut med t.o.m AV1 stöd.

För tillfället har jag en inte allt för gammal gaming laptop med 965m grafik. Den klarar ju inte ens h265 i hårdvara, så det misstaget skall inte göras igen.

Tror iofs jag väntar på Alder Lake

Jo men då behöver du inte 16 trådar med integrerad grafik

Visa signatur
Permalänk
Trollfabrik 🫶🏻
Skrivet av medbor:

Vad blir skalningen om vi jämför motsvarande krets på 10nm (laptop-kretsarna) eller fanns de inte med 8 kärnor?

Antagligen har de inte tokoptimerat dessa dock, bara sett till att de får något som fungerar. 14nm kisel är ju billigt för intel tänker jag...

Svårt att säga faktiskt! Men räknade på det lite snabbt och en Cypress Cove ser ut att vara ~35% större än en Skylake-kärna (exklusive L3-cache). Siffran är dock jävligt ungefär, är av förklarliga skäl svårt att hitta vettiga die shots på båda delar som gör en jämförelse så korrekt det går.

Det kan låta mycket, men jag trodde skillnaden skulle vara större än så. Att gå ned en nod ger ändå en hel del transistorbudget att leka med och det drar man givetvis nytta av med en ny arkitektur. Sunny Cove var ett hyfsat stort steg fram jämfört mot Skylake.

Visa signatur

Kontaktas enklast via PM. Önskas svar i forumet citera mina inlägg eller pinga @Jacob. Finns även på Twitter.

"Science and technology have progressed to the point where what we build is only constrained by the limits of our own imaginations." – Justin R. Rattner

Permalänk
Medlem

Skulle vara intressant & se en processor på 100nm eller större med dagens tekniker på transistorer, hur den skulle prestera om det bara är packa fler transistorer som gett prestanda ökning eller snarare kretsutveckling & transistorutveckling tex finfet som gett en ökning, absolut både och ,men vare intressant & se hur den skulle prestera, tänker volt resistans & ampere, inte antal (skulle i vart fall vara enklare att kyla en större yta, fast komponenterna skulle väl även ge mer värme gissar jag)

Visa signatur

Arne Berg

Permalänk
Medlem

är knappast någon expert inom processorer, men vad innebär det att den är mycket större? mer värmeutveckling? är det bra/dåligt?

Permalänk
Medlem
Skrivet av dakke:

är knappast någon expert inom processorer, men vad innebär det att den är mycket större? mer värmeutveckling? är det bra/dåligt?

Att den är större kan faktiskt vara positivt när det handlar om att kyla den, större area gör i teorin att mer värme kan överföras till kylaren. Men större area indikerar även att processorn innehåller fler transistorer, vilket kan göra att processorn drar mer ström och därmed utvecklar mer värme.

Större area gör även kretsen dyrare att tillverka eftersom man får ut färre kretsar per wafer, dels för att de tar upp mer plats och dels för att risken för defekta kretsar ökar.

Permalänk
Medlem
Skrivet av Lussarn:

För tillfället har jag en inte allt för gammal gaming laptop med 965m grafik.

"Inte alltför gammal gaminglaptop" och "965M" (som släpptes januari 2015).

Du får nog välja en.

Permalänk
Medlem
Skrivet av anon298854:

Kan det va 32nm de kör igen, 2st ihoplimmade 2600k de skrämt upp. 😜

Shhh.....

5.0 ghz / 2333 mhz 10-11-10-1T 2600k här
säg inget men den är snabbare om jag bara får en dual...
fyller väl 20 år snart va sen prototypen kom?

Visa signatur

Chassis: Fractal Design Define R4 CPU-cooling: NH-D14 with Arctic MX-6 paste CPU: Ryzen 5 3600XT MOTHERBOARD: Gigabyte X570 Aorus Elite MEMORY: 2x KF3600C16D4/16GX
GFX: EVGA GeForce RTX 3060 XC 12GB
PSU: Seasonic Focus GX 750W
HDD: Samsung 980 Pro 2TB
MONITOR: Acer predator XB273U

Permalänk
Medlem
Skrivet av dakke:

är knappast någon expert inom processorer, men vad innebär det att den är mycket större? mer värmeutveckling? är det bra/dåligt?

Någon kan rätta mig om jag har fel men såhär har jag förstått det hela.
Det beror varför den är större.
Om den är större pga av att den har fler transistorer så innebär det oftast att den är kraftfullare men också att den drar mer ström och då producerar mer värme.
Om den är större men har samma antal transistorer fast de är större så kan den oftast va ungefär lika kraftfull men även dra mer ström och då producera mer värme.
Dock är det lättare att kyla en större cpu än en mindre vid samma strömförbrukning pga av att värmen är utspridd över en större yta.

I Intels fall så är ju båda cpu:er tillverkade på 14nm så det innebär att 11700k har fler transistorer per kärna vilket bör ge högre prestanda men även högre strömförbrukning och värmeutveckling.
Dvs om de inte misslyckats med designen.
Ska bli intressant att se testerna när den lanserats skarpt.

Visa signatur

Ghost S1 || Asrock Phantom Gaming Z390 || 9900KF || Corsair 32GB@3400MHz CL16/1.45volt || Intel 660p 1gb || Corsair sf600 || RTX 4070 Inno3d 2x|| Asus PG279QM

Macbook pro 14 M1

Permalänk
Datavetare

Arean som iGPU tar upp skulle nog inte kunna användas till två extra kärnor. Även om det skulle matcha storleksmässigt är det helt annan effekt på dessa delar. Redan dagens x86_64 kärnor från Intel och AMD drar 40-50 W per kärna vid maxfrekvens, tyvärr lär Cypress Cove ta över den föga smickrande ledartröja.

Stoppade man in två kärnor till med bibehållen maxeffekt på kretsen skulle det ge rätt liten boost p.g.a. effekttaket. iGPU lär dra <= 10 W givet att det bara handlar om 32 EU medan Tiger Lake U har 96 EU på 15-28 W TDP.

Beroende på hur snabbt Intel får in stöd för OneAPI i relevanta program kan det faktiskt bli så att iGPUn får ett värde även för de som kör dGPU. CPUerna som har Xe-kretsar kan använda dessa kretsar parallellt med dGPU, Xe har redan visat framfötter när det handlar om GPGPU.

Skrivet av Ase:

det var redan ett problem på 28 nm med läckage mellan transistorer, Sen kanske man skulle kunna ändra teknik istället för att fortsätta med samma material, teknik bara krympa kisel.
När kisel inte går att krympa mer (kanske de redan vet vad) så kanske fotoner, utveckling av kvant-tekniken, eller nåt helt annat.
Fast först lär vi väl se en hel del limmande & staplade av kisel innan det dyker upp nåt nytt .Staplande & limmande lär nog bli vad vi ser de närmsta 10åren . Sen är väl amd s kisel hälften casheminne för att motverka latencyt man får när man limmar kisel. vilket verkar vara ett bekymmer när det gäller limmande,vilket de har löst ganska bra med ryzen & dess gigantiska casheminne. Men det kostar en del plats på processorerna oxå. Arm har väl knappt nåt cashe i sina processorer (förutom apple då)

(detta innehåller troligtvis faktafel har ej kollat utifall arm har litet cashe eller apple mer, eller om det stämmer med 50 % cashe yta på amd s processor utan bara lite tankar & vad man tror, det man snappat upp inom detta område)

P.S Lite konstigt att säga arm kontra x86 borde väl snarare vara arm kontra atom kärnorna vilket är mer jämförbara.
(om du med arm menar de vanliga standard kretsarna. & inte deras kretsar som är riktade mot servrar så är de inte lika små heller.) Sen om kretsen är liten eller stor spelar inte mig någon roll bara priset är vettigt,prestandan finns där & det går att kyla kretsen.

Man måste skilja på LLC (Last Level Cache, idag är det i praktiken nästan alltid L3$) som ligger utanför själva CPU-kärnan och därmed är relativt oberoende av CPU-arkitektur och L1/L2 som i praktiken är en den av CPU-kärnan.

Av rätt tekniska orsaker har "moderna" ARM64 CPUer större L1$ jämfört med x86_64. M1 har 128 kB L1I$ och 64 kB L1D$ medan Cortex X1 (sitter bl.a. i Snapdragon 888 och Exynos 2100) har 64 kB L1I$ och 64 kB L1D$. Det är rätt mycket större jämfört med både Intel (32 kB L1I$ och 48 kB L1D$ i "Coves") och AMD (32 kB L1I$ och 32 kB L1D$).

Både M1 och Cortex X1 har relativt stora L2$, M1 har 12 MB för 4 kärnor medan Cortex X1 kan fås med 512 - 1024 kB per kärna (Snapdragon 888 och Exynos 2100 har båda 1024 kB). Cypress Cove och alla Zen-modeller har 512 kB, medan Willow Cove (Tiger Lake U) har 1,25 MB per kärna.

Man ska nog inte jämföra high-end ARM64 med Atom givet att även Cortex X1 har väsentligt mycket högre IPC jämfört med Cypress Cove och Zen3, dock går den inte att klocka mer än 3,3-3,5 GHz.

Skrivet av Ase:

Skulle vara intressant & se en processor på 100nm eller större med dagens tekniker på transistorer, hur den skulle prestera om det bara är packa fler transistorer som gett prestanda ökning eller snarare kretsutveckling & transistorutveckling tex finfet som gett en ökning, absolut både och ,men vare intressant & se hur den skulle prestera, tänker volt resistans & ampere, inte antal (skulle i vart fall vara enklare att kyla en större yta, fast komponenterna skulle väl även ge mer värme gissar jag)

Finns på sätt och vis. Arm Cortex A53 är relativt jämförbar med ursprungliga Atom som i sin tur är väldigt lik ursprungliga Pentium sett till kapacitet (första Atom hade dock SMT, det hade inte Pentium eller A53).

På TSMC 16 nm tar en Cortex A53 mindre än 1 mm2. Finns ändå problem att klämma in hundratals sådana kärnor på en modern krets. Dels kan man undra vad poängen är, i det läget har man något som börjar likna en GPU fast som saknar den brutala bandbredd som GPUer har.

Har man nytta av en sådan design är lösningen: kör CUDA, SYCL (används bl.a. av OneAPI) eller liknande på en modern GPU.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Är den inte fastlödd nu för tiden?

Permalänk
Medlem
Skrivet av Yoshman:

Arean som iGPU tar upp skulle nog inte kunna användas till två extra kärnor. Även om det skulle matcha storleksmässigt är det helt annan effekt på dessa delar. Redan dagens x86_64 kärnor från Intel och AMD drar 40-50 W per kärna vid maxfrekvens, tyvärr lär Cypress Cove ta över den föga smickrande ledartröja.

Stoppade man in två kärnor till med bibehållen maxeffekt på kretsen skulle det ge rätt liten boost p.g.a. effekttaket. iGPU lär dra <= 10 W givet att det bara handlar om 32 EU medan Tiger Lake U har 96 EU på 15-28 W TDP.

Beroende på hur snabbt Intel får in stöd för OneAPI i relevanta program kan det faktiskt bli så att iGPUn får ett värde även för de som kör dGPU. CPUerna som har Xe-kretsar kan använda dessa kretsar parallellt med dGPU, Xe har redan visat framfötter när det handlar om GPGPU.

Man måste skilja på LLC (Last Level Cache, idag är det i praktiken nästan alltid L3$) som ligger utanför själva CPU-kärnan och därmed är relativt oberoende av CPU-arkitektur och L1/L2 som i praktiken är en den av CPU-kärnan.

Av rätt tekniska orsaker har "moderna" ARM64 CPUer större L1$ jämfört med x86_64. M1 har 128 kB L1I$ och 64 kB L1D$ medan Cortex X1 (sitter bl.a. i Snapdragon 888 och Exynos 2100) har 64 kB L1I$ och 64 kB L1D$. Det är rätt mycket större jämfört med både Intel (32 kB L1I$ och 48 kB L1D$ i "Coves") och AMD (32 kB L1I$ och 32 kB L1D$).

Både M1 och Cortex X1 har relativt stora L2$, M1 har 12 MB för 4 kärnor medan Cortex X1 kan fås med 512 - 1024 kB per kärna (Snapdragon 888 och Exynos 2100 har båda 1024 kB). Cypress Cove och alla Zen-modeller har 512 kB, medan Willow Cove (Tiger Lake U) har 1,25 MB per kärna.

Man ska nog inte jämföra high-end ARM64 med Atom givet att även Cortex X1 har väsentligt mycket högre IPC jämfört med Cypress Cove och Zen3, dock går den inte att klocka mer än 3,3-3,5 GHz.

Finns på sätt och vis. Arm Cortex A53 är relativt jämförbar med ursprungliga Atom som i sin tur är väldigt lik ursprungliga Pentium sett till kapacitet (första Atom hade dock SMT, det hade inte Pentium eller A53).

På TSMC 16 nm tar en Cortex A53 mindre än 1 mm2. Finns ändå problem att klämma in hundratals sådana kärnor på en modern krets. Dels kan man undra vad poängen är, i det läget har man något som börjar likna en GPU fast som saknar den brutala bandbredd som GPUer har.

Har man nytta av en sådan design är lösningen: kör CUDA, SYCL (används bl.a. av OneAPI) eller liknande på en modern GPU.

De arm som vanligt folk kommer i kontakt med är nog a53 & a72 & andra de som sitter i mobiltelefoner raspberry pi s & liknande ,ja nya m1 an är väl ett undantag där det är en liten mer avancerad sak(som folk kommer i kontakt med) än tele fån chipen i raspberry pi s osv.
cortex x1,x2 osv kommer bara hamna i nån serverhall eller som server på företag. Vilket vi vanliga dödliga nog inte kommer komma i kontakt med. (förutom i mobiler då )
tror jag inte ens nämnt lvl1 lvl2 cashe utan bara att cashe tar upp utrymme på kretsarna typ lvl3 cashe på ryzen sen tack för infon så klart,
bra utifall xe kan användas för beräkningar oxå vilket kan bli bra förhoppningsvis kan den användas som komplement till extern gpu så vore det ju ännu bättre. (har dock inte haft en cpu med inbyggd grafik senaste 10 åren förutom på jobbdator (bärbart fjoll),ja på min mac mini oxå) på raspberry pi e jag osäker kanske inbyggt men har för mig det e ett eget litet tel fån chip för grafiken oxå. Som det ser ut i nuläget så blir nog sapphire rapids mitt nästa inköp men det kan ju ändras oxå. men blir definitivt inte apple.(om de inte öppnar upp för hemmabyggen då)

Visa signatur

Arne Berg

Permalänk
Medlem
Skrivet av Ase:

det var redan ett problem på 28 nm med läckage mellan transistorer, Sen kanske man skulle kunna ändra teknik istället för att fortsätta med samma material, teknik bara krympa kisel.
När kisel inte går att krympa mer (kanske de redan vet vad) så kanske fotoner, utveckling av kvant-tekniken, eller nåt helt annat.
Fast först lär vi väl se en hel del limmande & staplade av kisel innan det dyker upp nåt nytt .Staplande & limmande lär nog bli vad vi ser de närmsta 10åren . Sen är väl amd s kisel hälften casheminne för att motverka latencyt man får när man limmar kisel. vilket verkar vara ett bekymmer när det gäller limmande,vilket de har löst ganska bra med ryzen & dess gigantiska casheminne. Men det kostar en del plats på processorerna oxå. Arm har väl knappt nåt cashe i sina processorer (förutom apple då)

(detta innehåller troligtvis faktafel har ej kollat utifall arm har litet cashe eller apple mer, eller om det stämmer med 50 % cashe yta på amd s processor utan bara lite tankar & vad man tror, det man snappat upp inom detta område)

P.S Lite konstigt att säga arm kontra x86 borde väl snarare vara arm kontra atom kärnorna vilket är mer jämförbara.
(om du med arm menar de vanliga standard kretsarna. & inte deras kretsar som är riktade mot servrar så är de inte lika små heller.) Sen om kretsen är liten eller stor spelar inte mig någon roll bara priset är vettigt,prestandan finns där & det går att kyla kretsen.

Detta har vi pratat om många gånger du och jag, men moderna ARM64-kärnor (som i A13/A14/M1/SD888/Ex2100/...) är mest jämförbara med core/zen snarare än atom i prestanda. Även de mobila kretsarna. Det är oftast snabbare kärnor i de mobila kretsarna dessutom än de för servrar för att de stora chippen med många kärnor tar längre tid att utveckla och ligger därför någon generation eller två bakom.

Permalänk
Medlem
Skrivet av medbor:

Detta har vi pratat om många gånger du och jag, men moderna ARM64-kärnor (som i A13/A14/M1/SD888/Ex2100/...) är mest jämförbara med core/zen snarare än atom i prestanda. Även de mobila kretsarna. Det är oftast snabbare kärnor i de mobila kretsarna dessutom än de för servrar för att de stora chippen med många kärnor tar längre tid att utveckla och ligger därför någon generation eller två bakom.

M1 är väl den enda som finns för hemanvändare förutom en drös tablets som ingen igentligen vill ha att server sidan ligger en generation efter mobilchipen har jag sett, men likväl så fungerar de bra i server miljöer för vissa specifika uppgifter.

För mig går apple bort pga hutlösa priser för vad man får sen är inte intresserad av bärbart så ytterligare en anledning till att apple går bort sen för låst plattform i jämförelse med en pc i windows/linux miljö.
'
Så när det dyker upp något vettigt från arm lägret som kan konkurera mot en pc för vardagligt bruk + spelande + musikskapande + vettiga priser +möjlighet till att kunna bygga själv så är jag intresserad av det, det räcker inte att bara vara annat än x86 för att väcka intresse.
Eller att de är mer energieffektiva, utan total prestanda utan watt begränsning för stationärt bruk.(till viss gräns så klart)
visst vi har raspberry pi som är en kul leksak men lovar att jag hoppas att det dyker upp nåt vettigt & då blir det dessutom ett inköp Om det finns vettig mjukvara MVH Arne
P.s telefoner e definitvt inte mitt intresse, snarare serverdelen då

Visa signatur

Arne Berg

Permalänk
Medlem
Skrivet av Ase:

M1 är väl den enda som finns för hemanvändare förutom en drös tablets som ingen igentligen vill ha att server sidan ligger en generation efter mobilchipen har jag sett, men likväl så fungerar de bra i server miljöer för vissa specifika uppgifter.

För mig går apple bort pga hutlösa priser för vad man får sen är inte intresserad av bärbart så ytterligare en anledning till att apple går bort sen för låst plattform i jämförelse med en pc i windows/linux miljö.
'
Så när det dyker upp något vettigt från arm lägret som kan konkurera mot en pc för vardagligt bruk + spelande + musikskapande + vettiga priser +möjlighet till att kunna bygga själv så är jag intresserad av det, det räcker inte att bara vara annat än x86 för att väcka intresse.
Eller att de är mer energieffektiva, utan total prestanda utan watt begränsning för stationärt bruk.(till viss gräns så klart)
visst vi har raspberry pi som är en kul leksak men lovar att jag hoppas att det dyker upp nåt vettigt & då blir det dessutom ett inköp Om det finns vettig mjukvara MVH Arne
P.s telefoner e definitvt inte mitt intresse, snarare serverdelen då

Jag menade såklart inte att ARM har mycket att erbjuda för att konkurrera med dagens desktop processorer, men kärnorna är snabba nog. Nu saknas det ’bara’ att någon satsar och gör ett stort snabbt chip med vettig/hög TDP och 8+ snabba kärnor. Tyvärr är nog Apple det enda alternativet i närtid dock (nästa släpp väntas ju vara en iMac/Macbook Pro med 8+ kärnor)

Menade bara att jämföra kärnorna med Atom är lite felaktigt, men produktsegments-mässigt är det ju ganska rätt tyvärr, men det är mest för att produktutvecklingen inte fattar vad de har möjlighet att skapa

Permalänk
Medlem
Skrivet av Yoshman:

Stoppade man in två kärnor till med bibehållen maxeffekt på kretsen skulle det ge rätt liten boost p.g.a. effekttaket. iGPU lär dra <= 10 W givet att det bara handlar om 32 EU medan Tiger Lake U har 96 EU på 15-28 W TDP.

Skulle inte vara några som större problem från den aspekten, du har bara mindre strömbudget per kärna att röra dig med vid all core turbo. Förbrukningen skalar långt ifrån linjärt med frekvens och man hade bara behövt sänka all core turbo med några 100 MHz med 10st vs 8 aktiva kärnor, det hade definitivt varit en hyfsad vinst i typ CB och andra vältrådade laster. 1-8 core turbo hade sedan varit i princip oförändrat så man hade inte tappat prestanda i något sammanhang från den aspekten, MEN!

Det som däremot hade börjat bli problem är att med ytterligare kärnor så hade man försämrat "core to core" latenserna ännu mer (vilka redan inte står sig bra mot Comet Lake enligt tidig info). Med fler fysiska hopp men också avstånd mellan cores så betalar du också ett prestandapris i vissa sammanhang (spel t.ex).