Rykte: AMD Ryzen 7000 "Raphael" gör integrerad grafik till standard

Permalänk
Medlem
Skrivet av multimiffo:

AMD lyckades designa en någorlunda kompetent kärna med ZEN1 och för att få en extra konkurrensfördel la de allt kisel på kärnor och sålde helt plötsligt 8 kärnor till konsument som standard, till samma pris som intel sålde fyra. Det var just antalet kärnor och priset per kärna som gjorde de första ZEN processorerna till en attraktiv produkt. Det hade inte varit möjligt med en integrerad GPU som tog 30% av ytan.

Jag tillskriver nog mycket av de framgångarna åt AMDs övergång till chiplets istället för stora monolitiska kärnor, där de kunnat sälja fler kärnor för mindre pengar genom att bl.a. tillverka mindre kritiska delar på äldre noder. CPUer med iGPU är nog här för att stanna, oavsett vad någon tycker om allokeringen av kisel.

Permalänk
Skrivet av Yoshman:

Med ~99 % sannolikhet kommer inte AMD stoppa in GPUn i det man kallar "compute-die" utan den kommer hamna i I/O-die precis som Intel gjorde med Arrandale.

I det läget så

  • är påverkan hos CPU-delen noll, där finns ingen GPU

  • kostnaden för att designa två I/O-dies ska vägas mot att designa en som används i alla modeller, är inte alls säkert att det ens blir billigare att ha två varianter!

  • när Nvidias köp av Arm går igenom och när OneAPI-användningen blir relativt utbredd skulle AMD bli ensamma om att inte ha en iGPU som standard, är betydligt enklare att få bred användning av något om alla programutvecklare i praktiken kan förutsätta att stöd finns. D.v.s. är en risk för AMD att inte ha en iGPU, de har faktiskt redan tappat ledartröjan i iGPU-prestanda då både Intel och framförallt Apple gått om

Apple visar redan nu hur värdefull en "stark" iGPU är när stödet finns i OS och många applikationer. Apple har också tagit steg två i "heterogena system" då M1 utöver "världens snabbaste iGPU" också har en NPU för acceleration av machine-learning. Användningen av ML kommer explodera, man får en liten försmak i program som Pixelmator Pro just hur fantastiska saker man kan göra med NPUer (d.v.s. vad man kan göra när ML-kapacitet är så hög att man kan göra rätt avancerade saker i realtid).

Även om de lägger den i IO die så tar den ändå plats och effekt. Platsen i IO-die skulle kunna användas till L4 cache eller mer buffrar/bättre minnes-kontroller.

Jag är även skeptisk till allmännyttan för GPU-accelerering, en 8-kärning CPU med SIMD är redan väldigt duktig på flyttal, speciellt om du inte är så känslig för energiåtgång. Jag tror betydligt fler skulle ha nytta av 10-20% bättre singeltråds prestanda från en gigantisk L4 cache än de som skulle ha verklig nytta av integrerad GPU-acceleration. De som verkligen tjänar på en GPU köper en dedikerad med bättre prestanda.

Visa signatur

/Hej hopp!

Permalänk
Medlem
Skrivet av g146:

Och det priset reflekterar den riktiga kostnaden för en iGPU? tror du verkligen på det?

Det spelar ju ingen roll när det är den faktiska prisskillnaden för slutkonsument.

Det klart att det ligger avsevärda resurser bakom att utveckla och integrera Intel Graphics Technology, men nu ser ju deras lineup ut så sedan mer än tio år, så det blir en väldigt hypotetisk diskussion om något som aldrig planerats och inte finns (utanför Core X-serien åtminstone).

Permalänk
Skrivet av Sveklockarn:

Det spelar ju ingen roll när det är den faktiska prisskillnaden för slutkonsument.

Det klart att det ligger avsevärda resurser bakom att utveckla och integrera Intel Graphics Technology, men nu ser ju deras lineup ut så sedan mer än tio år, så det blir en väldigt hypotetisk diskussion om något som aldrig planerats och inte finns (utanför Core X-serien åtminstone).

Jag har lite svårt att förstå ditt synsätt här. Bara för att intel döljer den verkliga kostnaden genom att inte ge dig nått val så innebär väl inte det att det magiskt är rätt prioritering för dig som kund?

Visa signatur

/Hej hopp!

Permalänk
Datavetare
Skrivet av multimiffo:

Även om de lägger den i IO die så tar den ändå plats och effekt. Platsen i IO-die skulle kunna användas till L4 cache eller mer buffrar/bättre minnes-kontroller.

Jag är även skeptisk till allmännyttan för GPU-accelerering, en 8-kärning CPU med SIMD är redan väldigt duktig på flyttal, speciellt om du inte är så känslig för energiåtgång. Jag tror betydligt fler skulle ha nytta av 10-20% bättre singeltråds prestanda från en gigantisk L4 cache än de som skulle ha verklig nytta av integrerad GPU-acceleration. De som verkligen tjänar på en GPU köper en dedikerad med bättre prestanda.

Den 64/128 MB L4$ som Intel använde i vissa Haswell, Broadwell och Skylake modeller gav i noll CPU-prestanda i majoriteten av alla applikationer. Det blev uppmärksammat en del då spel råkade vara ett uddafall där det faktiskt gav något.

I Haswell och Broadwell var det verkligen en L4$. Problemet med fler cache-nivåer är att det ökar latensen i fall när man får cache-missar, så "ingen" har gått förbi 3 cache-nivåer då de mest krävande fallen (de som inte ens får plats i L4$) presterar sämre med 4 cache-nivåer. I Skylake användes fortfarande eDRAM i vissa modeller, men där är det istället en RAM-buffert som är "osynligt" för CPU.

I praktiken gjorde L4$ bara relevant skillnad för iGPU, så handlar inte om L4$ istället för iGPU utan en rätt dyr optimering för iGPU. Även Intel verkar ha droppat idéen med "L4$", det är helt enkelt för dyrt för vad man får och en fördel med DDR5 är väsentligt högre RAM-bandbredd vilket lär hjälpa iGPU långt mer än CPU.

Cache tar mycket kretsyta i anspråk. Halva "compute-die" för Zen3 är L3$, då handlar det om "bara" 32 MB per chiplett.

Jag tror vi kommer få se betydligt större andel kisel dedicerad till iGPU framöver. Om/när OneAPI eller motsvarande slår igenom på PC (delvis motsvarande finns redan i MacOS/iOS, dock mindre omfång än OneAPI) kan man redan med dagens största iGPUer få rätt rejäl prestandaboost.

96 EU varianten av Iris Xe graphics når ~2 TFLOPs FP32. Som jämförelse är peak FP32 i 5950X rätt exakt densamma. D.v.s. den iGPU som är designad för 15-28 W bärbara har samma kapacitet som den snabbaste "mainstream" desktop CPU för pengar kan köpa just nu.

För det GPGPU fungerar är CPU-delen kass i jämförelse. Laptop-versionen av 3060Ti har i praktiken jämförbar prestanda i Blender med ThreadRipper 3990X!!!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av multimiffo:

Jag har lite svårt att förstå ditt synsätt här. Bara för att intel döljer den verkliga kostnaden genom att inte ge dig nått val så innebär väl inte det att det magiskt är rätt prioritering för dig som kund?

Fast nu har man ju ett val, och det är din hypotes att produktionskostnaden utgör en stor andel av priset. AMD är bevisligen inte intresserade av att konkurrera med prislappen med sina GPU-lösa CPUer heller, så av det kan vi nog dra slutsatsen att produktionskostnaden är en väldigt liten del av priset slutkonsumenter betalar. Det är också sannolikt att Intel tjänar pengar på att sälja det kislet i ett befintligt paket för 200 kr extra när det fortfarande går att köpa hela grafikkort för ca 400 kr.

Permalänk
Skrivet av multimiffo:

Så, låt oss titta närmare på din personliga avvägning här.

En 5800x med 8 kärnor och ett chiplet kostar ~4000kr och en 5900x med 12 kärnor och två chiplets kostar ~6000kr. Om vi tar en 5800x och lägger till ett chiplet för GPU och tar 6000kr för den, vilken processor hade du köpt? Om vi lyckas pressa ned priset till 5000kr? Vart går gränsen för dig?

Själv så skulle jag kunna tänka mig att lägga ~500kr om jag får tillgång till minst 2 display port, annars 0 kr. Om det innebär någon som helst avdrag i prestanda pga ström-budget eller liknande är det kört direkt.

Tillverkare gör ej produkter efter vad en själv och ens polare vill ha utan den stora massan. Det är en av orsakerna till att det går så otroligt trögt med bättre nätverksprodukter på konsumentsidan för att efterfrågan är liten. Med bättre nätverksprodukter så 2,5/10 gbit/s produkter.

Sedan vad som händer datorutvecklingen på stationärsidan tror jag direkt hänger ihop med vad gamers gör. Blir utvecklingen att gamers mer spelar på konsoler, där de nyas efterfrågan är högre än vad tillverkarna kan leverera så kommer våra desktop-datorer helt förändras. Försäljningen lär rasa, alla datordelar lär stiga i pris och resultatet blir att man får mer för pengarna att köpa en laptop.

Om försäljningen av gaming-pc fortfarande är hög så kommer hårdvara riktad till dessa vara billig, hårdvara riktad åt dem som gör mer än att spela kan också bli billig då de kan åka snåltjust om de ändå använder samma tekniker.

*edit2*
Det är lite för detta resonemang som jag inte imponeras så otroligt mycket på att Apple i de sista åren har lyckas så bra med deras CPU när de har haft så många miljarder att lägga på utveckling. Det jag dock imponeras riktigt på är vad de gjorde för 15år sedan när de inte hade så mycket pengar och tog fram saker.

Samma sak gäller externa grafikkort. Så länge som gamers och miners köper dessa i mängder för deras ändamål så lär dessa vara väldigt bra emot igpu. Förvinner dessa grupper så tror jag igpu kommer ta över på desktop. Nu används visserligen grafikkort mycket på serversidan för annat än grafik som AI. Men frågan är om dessa kort inte snart slutas kallas för grafikkort då det inte handlar om att vara ett tradionellt grafikkort.

Permalänk
Medlem

Det jag inte setts nämnas i tråden är att i och med denna generation, om jag förstått det rätt, så antas AMD gå över till chiplet med GPUer också (samt att iGPU får DDR5 <3). Vilket i detta fall, min gissning, innebär att AMD hoppas på att kunna mixa och tricksa precis hur dom vill, en liten CPU-del med mycket GPU för enkel speldator, eller mindre GPU och mer CPU för workstation, och för den utan behov för en GPU en helt utan såklart. Kommer deras förmodade GPU-design ens fungera på det viset när eller om de går över till chiplet?

Permalänk
Medlem
Skrivet av multimiffo:

Så, låt oss titta närmare på din personliga avvägning här.

En 5800x med 8 kärnor och ett chiplet kostar ~4000kr och en 5900x med 12 kärnor och två chiplets kostar ~6000kr. Om vi tar en 5800x och lägger till ett chiplet för GPU och tar 6000kr för den, vilken processor hade du köpt? Om vi lyckas pressa ned priset till 5000kr? Vart går gränsen för dig?

Själv så skulle jag kunna tänka mig att lägga ~500kr om jag får tillgång till minst 2 display port, annars 0 kr. Om det innebär någon som helst avdrag i prestanda pga ström-budget eller liknande är det kört direkt.

Beror helt på vad jag tänker göra med datorn. Ska jag ha en dGPU i så lär jag inte lägga pengarna så. Ska jag bygga en SFFburk till brorsan som har helt andra behov än jag så börjar helt plötsligt gpuchipleten se väldigt attraktiv ut.