Rykte: AMD Ryzen 7000 "Raphael" gör integrerad grafik till standard

Permalänk
Medlem

Har ingen nytta av det själv men om man behöver vara utan sin dedikerade gpu av någon anledning så är det ju klart fantastiskt att ha den som backup t.ex om du måste skicka in din GPU av nån anledning.

Visa signatur

PG279Q | 6XX | X-Fi Titanium HD | RTX 2080 | 5800X3D
G.Skill 3200 CL14 | B450-F | 970 EVO | Seasonic 750W | Fractal R5

Permalänk
Medlem
Skrivet av lillaankan_i_dammen:

Så vem köper en högpresterande cpu på en desktop inte avvänder externt grafikkort?

Datormarknaden för stationära datorer är lite större än privatpersoner och gamers. För de allra flesta professionella användare finns det all anledning att ha en så snabb CPU som möjligt, eftersom tid är pengar, samtidigt som ett diskret grafikkort i de allra flesta fall inte behövs.

Permalänk
Medlem
Skrivet av Ozzed:

Synd om det ska bli tvång då dst driver upp priserna i onödan. Men förstår också de som vill åt den fulla potentialen i Ryzen utan att behöva köpa ett dedikerat grafikkort. Men jag tycker ändå att de kan släppa modeller som helt saknar kisel för integrerad grafik. Det driver ju som sagt upp priset

Läser man på reddit om nyheten så verkar det bli mer i stil så som Intel där det finns både och, så man kan välja en modell utan igpu och spara en slant.

Själv så vill jag gärna ha en med igpu, typ enda anledningen till varför jag övervägt Intel ibland. Så skönt att ha ibland, underlättar om man Meckar med datorn en del och gillar att byta delar för ofta

Visa signatur

MB: Asus Rog B550-F WiFi | CPU: Ryzen 5, 3600
GPU: RTX 4070TiS PNY Verto | Chassi: FD Meshify 2 compact
Ram: G.skill Trident Z, 14-14-14-34, 3200 Mhz, 2x 8gb

Permalänk
Medlem
Skrivet av bubbelbabbel:

Lite off-topic: varifrån kommer ”Dragon Crest”? Alla övriga är som bekant konstnärer. Varför bryter AMD mönstret?

Dragon Crest är vad man kan kalla en höjd, Drakkrönet. Och är i stil med Summit Ridge, Raven Ridge, Pinnacle Ridge och Castle Peak. Men ja de hade ju lite slutat med de och övergått till konstnärer, men AMD är notoriskt dåliga på att hålla sina namnscheman till ett och samma. De byter ofta och dessutom utan klara avbrott. De blandar ofta mellan dem fram och tillbaka hej vilt.

Permalänk
Medlem

Nu med usb-c så kunde det varit på sin plats att skicka med en adapter som gör att det går att få bild utan integrerad grafik.
Blir det billigare så ser jag det som ett alternativ. Den behöver bara klara av att visa bios och funka i OS.
Det kan inte blir dyrt när det görs i bulk.

Jag kan ha fel och miljöaspekten måste med räknas in.

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem
Skrivet av SCORPIUS:

Nu med usb-c så kunde det varit på sin plats att skicka med en adapter som gör att det går att få bild utan integrerad grafik.
Blir det billigare så ser jag det som ett alternativ. Den behöver bara klara av att visa bios och funka i OS.
Det kan inte blir dyrt när det görs i bulk.

Jag kan ha fel och miljöaspekten måste med räknas in.

Det skiljer 200 kr till konsument mellan en i9-11900KF och i9-11900K idag, precis efter release. Det kan aldrig bli miljövänligare än att skicka med några kvadratmillimeter extra kisel i en befintlig produkt oavsett hur enkel en extern enhet skulle kunna göras.

Permalänk
Skrivet av Sveklockarn:

Datormarknaden för stationära datorer är lite större än privatpersoner och gamers. För de allra flesta professionella användare finns det all anledning att ha en så snabb CPU som möjligt, eftersom tid är pengar, samtidigt som ett diskret grafikkort i de allra flesta fall inte behövs.

För 20 år sedan var denna skara "stor". Idag så var enda kotte på arbetsplatser har laptops och vi pratar även om dyrare laptops för runt 40 000kr. De få som har stationära, ja en majoritet av dessa har också externt grafikkort.
Jag vet hur mycket som helst som en laptop är dåligt för på arbetsplats, videoredigering och cad är nog bland det vanligaste. Och en gemensam nämnare är att de då nästan alltid har externt grafikkort.

Så jag tror inte så mycket på stationär för arbetsplatser utan mer ministationära datorer som skulle kunna sitta lite här och där. Allt ifrån enkel terminal till mediaspelare etc.

*edit*
Skaran personer som t.ex. tycker en kompilering tar lång tid på deras laptop och vill ha en stationär istället och får välja detta för företaget , ja de är helt försumbara sett till antalet cpu om säljs. Undra egentligen hur många personer egentligen som får välja en stationär kraftfull dator istället för en laptop idag och orsaken har inget med grafik och göra, jag skulle tro ytterst få.
Företagsledare brukar vara så inih-lvete bakåtsträvande när det gäller att låta folk få ha den hårdvara de ville ha.

Permalänk
Datavetare

Jag tror AMDs ingenjörer ser helheten betydligt bättre än många "laggards" här på SweC. Bilden är från en 10 år gammal AMD-presentation om "APU"

Klicka för mer information
Visa mer

Notera vad man redan då identifierat som huvudproblemet ("constrained by"). Det är vad Nvidia knäckte med CUDA och vad Intel nu lägger enorma resurser på med deras OneAPI.

Förhoppningsvis är inkludering av GPU i alla AMDs Ryzen CPUer en vink om att även dom har fattat att den programvara som krävs inte kommer skriva sig själv utan det är något som kommer kräva rätt ordentliga FoU-satsningar.

Wendel (Level 1 Techs) har en lång intervju med Intel-anställde Jeff McVeigh om OneAPI, mycket mot bakgrund av vad Wendel själv noterat när han kikat på OneAPI.

Sammanfattningen av de som inte orkar titta på en väldigt intressant 40 minuters diskussion om OneAPI är: med rätt stöd från programvara ger "heterogena" system heltalsfaktorer och vissa fall tiopotenser bättre prestanda och/eller prestanda/W.

AMD hade alltså helt rätt vision runt deras APU, tyvärr har man så här långt totalt misslyckats på den punkt man själv redan från start identifierade som den mest kritiska delen: programvara, inte HW.

Om (skulle säga att det i praktiken handlar om när givet mängden resurser Intel plöjer ned i OneAPI) kan vi få se att "fine-wine" trenden följt med Raj Kaduri när den "värdelösa" iGPU i Intels CPUer faktiskt börja ge en relevant tillskott till prestanda. Lär i.o.f.s. hända betydligt mer på bärbara än på stationära, men i L1T videon pratas det om att framtida servers kommer i långt större utsträckning ha iGPU just då man börjar se hur de effektivt kan används även där!

Rocket Lake S har nog lite väl klen iGPU för att det ska göra någon större skillnad. Trots att den är så klen har den ändå beräkningskapacitet motsvarande 2-4 Cypress cove kärnor @ 5,0 GHz fast med långt bättre prestanda/W. Skulle vara väldigt spännande att se tester från SweC i Blender med Xe-baserade GPUer nu när dessa stöds i Blender 2.93, framförallt då det går att köra iGPU+CPU parallellt!

Grafik-kretsen iGPU/APU kommer aldrig kunna matcha dGPUer i rå prestanda p.g.a. kiselbudget, TDP-budget och bandbredd mot RAM. Men med ramverk som OneAPI kan systemet automatiskt (inom rimliga gränser) anpassa sig efter just din HW-konfiguration.

Vidare har iGPU-er en sto fördel mot dGPU just för GPGPU: de delar RAM med CPU vilket betyder nära noll latenskostnad att växla mellan att jobba på data via CPU och iGPU. Det betyder också att mängden RAM en iGPU har tillgång till möjliggör fall där VRAM kanske inte är tillräckligt stort. Just hantering av riktigt stora datamängder i GPU är delvis ett övergående problem då dagens GPUer kan använda VRAM som en cache och direkt läsa/skriva "vanligt" RAM, kommer till sin fulla rätt med PCIe5 och CXL.

TL;DR
Steve Jobs hade helt rätt med
"I think Henry Ford once said, "If I'd asked customers what they wanted, they would have told me, 'A faster horse!'" People don't know what they want until you show it to them."

Jag tror AMD inser att heterogena system verkligen är framtiden, om man inte hänger på trenden med att allt mer lyfts från CPU till andra mer effektiva kretsar kommer man sitta med världens snabbaste hästar när de andra gått över till bilar.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Jag tror AMD inser att heterogena system verkligen är framtiden, om man inte hänger på trenden med att allt mer lyfts från CPU till andra mer effektiva kretsar kommer man sitta med världens snabbaste hästar när de andra gått över till bilar.

Var inte hela det perspektivet en stor del i tanken bakom hur dom valde att designa Bulldozer arkitekturen?
Att dela upp olika arbetsuppgifter mellan heltalsstarka delar, flyttalsstarka delar, GPU och andra parallelliserbara delar?

Permalänk
Medlem

Tror jag reflexmässigt utan att egentligen veta varför, reagerar med hypotesen om att en iCPU skulle vara varmare och klocka sämre än en CPU utan integrerad GPU-del. Men så har det kanske aldrig varit? (Tänker jag och kommer ihåg min gamla 2700K)

Visa signatur

🖥️:Phanteks Evolv X | Ryzen 7 5800X3D | Noctua nh-d15 chromax.black | 8x Noctua NF-P14s Redux 1500 | Gigabyte x470 Aorus Gaming 7 Wifi | Kingston Renegade 32Gb 3600Mhz | Samsung 990 Pro | ASUS TUF 3080 12Gb | Cougar CM 700W | Acer XB27HU | Mionix Naos QG | CM Storm QuickFire TK MX Blue |

"Bättre bli motbevisad - än förklarad skyldig"

Permalänk
Skrivet av Yoshman:

Jag tror AMD inser att heterogena system verkligen är framtiden, om man inte hänger på trenden med att allt mer lyfts från CPU till andra mer effektiva kretsar kommer man sitta med världens snabbaste hästar när de andra gått över till bilar.

Laptops är framtidens klienter. På laptops så kommer nog igpun av naturliga orsaker ta över ännu mer.
iGpu i sin tur använder mer än till bara grafik. Jag ser ett samband med flyttalsprocessorn som för var extern, man bygger in den i cpun för att den göra det ena och andra. Där iGpu i detta fall blir en mer avancerad flyttalsprocessor. Och man kan dra nyttja av sin iGpu vid kryptering m.m, fast man har 4st Nividia 3090 grafikkort på datorn.

AMD vill säkert ha samma kretsar överallt och då det kostar väldigt mycket att designa olika designer.
Men det jag påstår är att skaran som idag köper en desktop utan extern grafikkort är väldigt liten, om man räknar bort dessa mini maskiner som sitter lite varstans och har nästan alltid en enklare cpu.

Om man däremot går tillbaka 15-20 år i tiden och besöker närmsta elkedja, så var det fullt med stationära datorer som såldes till helt vanligt folk. Idag har de väl typ inte en enda stationär dator hemma som inte är riktad för gaming? -Mac mini, mediaspelare kan vara undantag.

Permalänk

I laptops blir jag mest provocerad av dedikerad grafikkrets, men då är jag oxå sån som helst vill ha en fläktlös laptop (senaste köpet var en sådan) med bra batteritid, underhållsfri, och sånt.

I stationära vill jag ha iGPU och ibland grafikkort. Som någon annan skrev är det behändigt vid felsökning, men även för att datorn kan leva vidare på ett schysst sätt vid pension - strömsnål, tyst och eventuellt liten formfaktor o så. Perfekt för 24/7-surfdatorer/servrar.

För att ta ett skräckexempel så tycker jag inte direkt det är ett mervärde om jag ser en blocketannons på "gaming"-dator med en gammal Nehalem/Sandy Bridge om den saknar iGPU (moderkortets chipset) men råkar ha ett GTX480. Detta är ett perfekt exempel där jag vid eventuellt köp mycket hellre vill ha ett strömsnålare köp med iGPU-stöd, ist för en stor varm strömslukande styggelse till dator...

Som sagt, iGPU gör datorn pensionsvänlig.

Visa signatur

Dator: EEE901 N270/ 1GB / 20GB SSD ... Kraftigt nedbantat/tweakat Win7 x86 for speeeEED!
Facebook användare? Hatar tidslinjen? gå med i denna FB-grupp:
Undo Timeline ...med lite tur får h*lvetet ett slut!

Permalänk
Medlem
Skrivet av mpat:

Ryzen 6000 är Warhol i den här bilden, utan GPU. Ser ut som en ren refresh av 5000-serien, men det står inte vilken minnesstandard det är så det kanske är DDR5 då.

AMD kan ju lätt göra två olika IO-chip, ett med och ett utan GPU, och packa in dem i olika processorer.

AM4 har bara varit DDR4 under hela sin långa livstid. I en associerad bild ,ungefär lika autentisk kanske, står DDR4 https://videocardz.com/newz/amd-ryzen-7000-raphael-to-feature... . Om Warhol blev AM4 och DDR5-kompatibel skulle det behövas produceras nya moderkort och kretsar och minnesslotar(antar att DDR4 är olikt DDR5 fysiskt) med AM4 och den skulle bli den första desktop-Ryzenen med olika minneskontrollers så vitt jag vet. Om Warhol bara skulle stödja DDR5 skulle "Zen 3 refresh" inte stödja de moderkort som släpptes i takt med Zen 3, vilket låter otroligt. Mao tror jag Raphael blir AM5 och DDR5 och PCIE5 och AM4 remains DDR4 PCIE4.

Vad gäller artikelns huvudämne, alltid IGP, så ser jag inget större problem med det. Det exkluderar ingen. En integrerad grafikkrets kan säkerligen totalignoreras för den som vill använda bara ett dedikerat grafikkort. Jag kan iaf inte tänka mig att den i5 och i7 jag hade previously hade varit snabbare eller dragit mindre ström om de inte haft igp, men det är ett antagande. Borde förmodligen se videon ovan.

Visa signatur

| 212965 00 ] == :^D * ==)

Permalänk
Medlem
Skrivet av bubbelbabbel:

Lite off-topic: varifrån kommer ”Dragon Crest”? Alla övriga är som bekant konstnärer. Varför bryter AMD mönstret?

Skrivet av Aleshi:

Dragon Crest är vad man kan kalla en höjd, Drakkrönet. Och är i stil med Summit Ridge, Raven Ridge, Pinnacle Ridge och Castle Peak. Men ja de hade ju lite slutat med de och övergått till konstnärer, men AMD är notoriskt dåliga på att hålla sina namnscheman till ett och samma. De byter ofta och dessutom utan klara avbrott. De blandar ofta mellan dem fram och tillbaka hej vilt.

Det kanske är lagom till Dragon Crest som AMD räknar med att det sista som tidigare var chipset flyttar in i CPUn, så att det inte kommer att bli meningsfullt att ha namn för både CPU-designer och chipset

(fast, där är vi ju typ redan, om vi tittar på vissa serverkort t.ex.)

Visa signatur

Här hade jag en historik sen 1990-talet, men den blev tillslut för lång. Aktiva maskiner 2022-framåt:
Work/Play/Everythingstation: AMD Epyc 7443p, Pop OS host, Win10 + Linux guests (KVM/Qemu)
Work/Play nr 2: AMD Phenom II 1090t, Debian + Win 10 (dual boot)
Server x3: Epyc 7252 (TrueNAS Core), Atom 2550 (FreeBSD, backup), Opteron 6140 (Ubuntu, off prem backup)
Retrohörna under uppbyggnad: Dual Pentium Pro 200MHz, Pentium P54C 90MHz, Gravis Ultrasound MAX

Permalänk
Datavetare
Skrivet av Kilroy:

Var inte hela det perspektivet en stor del i tanken bakom hur dom valde att designa Bulldozer arkitekturen?
Att dela upp olika arbetsuppgifter mellan heltalsstarka delar, flyttalsstarka delar, GPU och andra parallelliserbara delar?

Bulldozer hade faktiskt ingen GPU utanför low-end desktop samt bärbara, möjligen berodde det på att man inte hade en klar bild över hur vilken programvara som faktiskt behövdes.

Heterogena system gör inte CPU överflödig, vissa problem är väldigt skalära i sin natur och innefattar väldigt stora mängder villkorad körning. Kompilering är ett exempel på problem som ingen så här långt på något relevant sätt lurat ut hur man skulle kunna köra på GPGPU, det är typexempel på problem där CPUn är med råge "best-match".

Tanken bakom Bulldozer kan delvis ha varit att sköta flyttal via GPU. Den tanken har i så fall visat sig vara feltänkt, för även om det är mer sällsynt att flyttalsintensiva laster är rätt skalära så finns den definitivt flertalet viktiga fall där så är fallet. GPGPU är expert på en delmängd av parallelliserbara problem, de som är "data-parallella". D.v.s. man har en stor mängd data där man vill applicera samma (eller väldigt snarlik) beräkning på, mycket inom grafik är typexempel på detta.

Bulldozer hade ju andra, större problem, det var helt enkelt inte en vettig grunddesign. Det är en form av SMT då definitionen av SMT är att minst en av fetch, decode, execute stegen ska delas mellan CPU-trådar. Det "normala" är att dela allt, så fungerar Ryzen och Core. Men finns också framgångsrika SMT varianter där man endast delar "execute".

Bulldozer delade "fetch/decode" och hade separat "execute", svårt att se hur man någonsin såg någon vettig poäng med detta. Man pratade om "mer förutsägbar prestanda". Det fick man absolut, problemet är att den blir förutsägbart låg p.g.a. att man primärt är begränsad av "smal" execute-del.

Ryzen och Coves (och än mer Apples Firestorm) är det totalt omvända, man har brutalt breda "execute"-delar, väsentligt bredare än vad "front-end" har kapacitet att mata i det generella fallet men det hjälper ändå vid loopar och efter "stalls" (cache-missar etc).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk

Blir ledsen när jag läser det här. Jag hoppas verkligen kommande 5900x och 5950x motsvarigheter går att köpa utan GPU. En iGPU tar ju en enorm plats i väldigt dyrt kisel. I ordning vad jag hellre skulle spendera den ytan på:

1: 128-256MB L4 cache, eller
2: 4-6 extra kärnor, eller
3: ~30% lägre pris

En trött gpu kan jag köpa själv å slänga in och välja hur kraftfull jag vill ha.

Visa signatur

/Hej hopp!

Permalänk
Medlem
Skrivet av multimiffo:

Blir ledsen när jag läser det här. Jag hoppas verkligen kommande 5900x och 5950x motsvarigheter går att köpa utan GPU. En iGPU tar ju en enorm plats i väldigt dyrt kisel. I ordning vad jag hellre skulle spendera den ytan på:

1: 128-256MB L4 cache, eller
2: 4-6 extra kärnor, eller
3: ~30% lägre pris

En trött gpu kan jag köpa själv å slänga in och välja hur kraftfull jag vill ha.

Intel tar 200 kr för sin iGPU... vilka av grejerna på din lista är det du föreställer dig motsvarar det?

Permalänk
Skrivet av Sveklockarn:

Intel tar 200 kr för sin iGPU... vilka av grejerna på din lista är det du föreställer dig motsvarar det?

Ja, för att de inte har något kisel utan. De kan bara spara in om de råkar ha några kretsar med trasig GPU på. Historiskt sett har intel lagt 30-50% av kislet på GPU. Personligen tycker jag det är ok för en powerpoint/surf dator men totalt vansinnigt för alla former av prestanda maskiner.

edit: Om AMD faktiskt gör en dedikerad GPU chiplet och sätter ett pris som iaf är i närheten av vad chipleten kostar så kan det blir intressant att se hur mycket folk faktiskt kan tänka sig betala för en integrerad GPU.

Visa signatur

/Hej hopp!

Permalänk
Medlem
Skrivet av multimiffo:

Ja, för att de inte har något kisel utan. De kan bara spara in om de råkar ha några kretsar med trasig GPU på.

F-varianten utan GPU introducerades dock först 2019. De lyckades alltså sälja CPUer i 9 år utan att deras affärsmodell var beroende av defekt kisel.

Skrivet av multimiffo:

Historiskt sett har intel lagt 30-50% av kislet på GPU. Personligen tycker jag det är ok för en powerpoint/surf dator men totalt vansinnigt för alla former av prestanda maskiner.

Tvivlar starkt på att det råder någon utrymmesbrist på det fysiska paketet som kan härledas till att GPU-delen är stor, men har du någon mer information om det så får du gärna posta.

Permalänk

Som referens eftersom många inte verkar ha reflekterat över hur mycket kisel som läggs på en integrerad GPU:

Så i båda dessa får du ~4 extra kärnor om du tar bort GPU:n.

Visa signatur

/Hej hopp!

Permalänk
Medlem
Skrivet av multimiffo:

Så i båda dessa får du ~4 extra kärnor om du tar bort GPU:n.

Fast det är ju inte riktigt så det funkar...

Permalänk
Skrivet av Sveklockarn:

Fast det är ju inte riktigt så det funkar...

Kislet där GPUn sitter är precis lika dyrt som det där du har kärnor så hur menar du nu? Visst, det finns gränser för hur många kärnor du kan ansluta till samma L3 cache osv. men du kommer ändå inte ifrån att om du köper en processor där 30% av ytan är en GPU så innebär det att 30% av tillverkningskostnaden av kislet är för GPUn. För mig motsvarar en integrerad GPU absolut inte 30% av nyttan hos en processor vilket göra att jag tycker det är en smått vansinnig allokering av resurser.

Visa signatur

/Hej hopp!

Permalänk
Medlem

Om vi tar prestandan i en idag ny processors gpu som bas, hur vore det att ha ett grafikkort inbyggt i moderkortet istället?
Låt cpu vara enbart cpu och släng över resten på moderkortstillverkarna.

Är det en så tokig idé?
Bättre eller sämre för konsumenter?
Dyrare eller billigare?

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem
Skrivet av multimiffo:

Kislet där GPUn sitter är precis lika dyrt som det där du har kärnor så hur menar du nu?

Jag menar att allokeringen av kislet inte vägs emot om de ska ha med en GPU eller inte.

Core X-serien med 10-18 kärnor är ju inte direkt billigare för att man lagt dit fler kärnor och skippat GPU.

Skrivet av multimiffo:

Visst, det finns gränser för hur många kärnor du kan ansluta till samma L3 cache osv. men du kommer ändå inte ifrån att om du köper en processor där 30% av ytan är en GPU så innebär det att 30% av tillverkningskostnaden av kislet är för GPUn.

Kopplingen mellan tillverkningskostnaden och priset till konsument kan man nog misstänka är väldigt liten för en CPU. Det som kostar är nog snarare att utveckla grejerna, hålla produktionsanläggningar igång och en massa andra saker som krävs för att en CPU ska bli till. Kiselkostnaden måste nästan vara en kiss i oceanen. Jag kunde köpt det här argumentet om en Intel-CPU varit mycket dyrare och sämre, men det är ju först med senaste Ryzen-generationen AMD lyckats ta sig till toppen... och de har som sagt fortfarande ingen iGPU.

Skrivet av multimiffo:

För mig motsvarar en integrerad GPU absolut inte 30% av nyttan hos en processor vilket göra att jag tycker det är en smått vansinnig allokering av resurser.

Kollade Wikichip för skojs skull, min i7-8086K har 27% av kiselarean upptagen av GPU.

Permalänk
Skrivet av SCORPIUS:

Om vi tar prestandan i en idag ny processors gpu som bas, hur vore det att ha ett grafikkort inbyggt i moderkortet istället?
Låt cpu vara enbart cpu och släng över resten på moderkortstillverkarna.

Är det en så tokig idé?
Bättre eller sämre för konsumenter?
Dyrare eller billigare?

Tror inte det blir så lyckat att sätta en GPU på moderkortet heller. Ser inget problem med att köpa en billig diskret GPU för 500-600kr. Det största problemet är att ingen GPU tillverkare verkar vara intresserad av att sätta ~3 displayport utgångar på sina billigare kort.

Visa signatur

/Hej hopp!

Permalänk
Medlem
Skrivet av multimiffo:

Som referens eftersom många inte verkar ha reflekterat över hur mycket kisel som läggs på en integrerad GPU:

Alltså släpp det här med kiselyta en gång för alla,
det är ju bara 39x0 och 59x0 som ens använder två chiplets med cores - resten av alla ryzen har väldigt mycket ledigt utrymme för en GPU.
Så i teorin så kan ju AMD fortsätta sälja 12 och 16-kärniga processorer utan GPU till den kundkretsen, men om ni lyssnar på Yoshman så önskar de nog också att varje core får balanserad tillgång till en GPU för avlastning.

Personligen hade jag gärna köpt en 8-kärning APU då en sådan dator med lätthet fått plats i nätaggregatet på en större och säkert också kostat mindre för hela datornnän sweetspot för dagens grafikkort.

Permalänk
Medlem
Skrivet av Sveklockarn:

Intel tar 200 kr för sin iGPU... vilka av grejerna på din lista är det du föreställer dig motsvarar det?

Och det priset reflekterar den riktiga kostnaden för en iGPU? tror du verkligen på det?

Permalänk
Skrivet av Sveklockarn:

Jag menar att allokeringen av kislet inte vägs emot om de ska ha med en GPU eller inte.

Core X-serien med 10-18 kärnor är ju inte direkt billigare för att man lagt dit fler kärnor och skippat GPU.
Kopplingen mellan tillverkningskostnaden och priset till konsument kan man nog misstänka är väldigt liten för en CPU. Det som kostar är nog snarare att utveckla grejerna, hålla produktionsanläggningar igång och en massa andra saker som krävs för att en CPU ska bli till. Kiselkostnaden måste nästan vara en kiss i oceanen. Jag kunde köpt det här argumentet om en Intel-CPU varit mycket dyrare och sämre, men det är ju först med senaste Ryzen-generationen AMD lyckats ta sig till toppen... och de har som sagt fortfarande ingen iGPU.
Kollade Wikichip för skojs skull, min i7-8086K har 27% av kiselarean upptagen av GPU.

Kiselytan är definitivt en väldigt kritiskt aspekt när produkter designas och prissätts. Absolut är det mycket hyss i prissättning till konsument men det är ändå kostnaden för tillverkning, priset du tror du kan sälja din produkt för, samt marginalerna du måste ha för att gå med vinst som avgör. Storleken på din krets är totalt avgörande för tillverkningskostnaden. Ofta finns det mer eller mindre en hård gräns för hur stor din krets kan vara, dels för att den blir för knepig att tillverka och för att du får för dåliga marginaler. Målet måste då vara att använda de kvadratmillimeter du har för att ge så mycket värde som möjligt till konsument för att få en så attraktiv produkt som möjligt.

AMDs senaste komet-karriär är ju också ett utmärkt exempel på detta. Intel hade harvat på utan konkurrens i många år, artificiellt hållit ned antalet kärnor och istället lagt kiselbudgeten på en GPU etc. AMD lyckades designa en någorlunda kompetent kärna med ZEN1 och för att få en extra konkurrensfördel la de allt kisel på kärnor och sålde helt plötsligt 8 kärnor till konsument som standard, till samma pris som intel sålde fyra. Det var just antalet kärnor och priset per kärna som gjorde de första ZEN processorerna till en attraktiv produkt. Det hade inte varit möjligt med en integrerad GPU som tog 30% av ytan.

Visa signatur

/Hej hopp!

Permalänk
Datavetare
Skrivet av multimiffo:

Kiselytan är definitivt en väldigt kritiskt aspekt när produkter designas och prissätts. Absolut är det mycket hyss i prissättning till konsument men det är ändå kostnaden för tillverkning, priset du tror du kan sälja din produkt för, samt marginalerna du måste ha för att gå med vinst som avgör. Storleken på din krets är totalt avgörande för tillverkningskostnaden. Ofta finns det mer eller mindre en hård gräns för hur stor din krets kan vara, dels för att den blir för knepig att tillverka och för att du får för dåliga marginaler. Målet måste då vara att använda de kvadratmillimeter du har för att ge så mycket värde som möjligt till konsument för att få en så attraktiv produkt som möjligt.

AMDs senaste komet-karriär är ju också ett utmärkt exempel på detta. Intel hade harvat på utan konkurrens i många år, artificiellt hållit ned antalet kärnor och istället lagt kiselbudgeten på en GPU etc. AMD lyckades designa en någorlunda kompetent kärna med ZEN1 och för att få en extra konkurrensfördel la de allt kisel på kärnor och sålde helt plötsligt 8 kärnor till konsument som standard, till samma pris som intel sålde fyra. Det var just antalet kärnor och priset per kärna som gjorde de första ZEN processorerna till en attraktiv produkt. Det hade inte varit möjligt med en integrerad GPU som tog 30% av ytan.

Med ~99 % sannolikhet kommer inte AMD stoppa in GPUn i det man kallar "compute-die" utan den kommer hamna i I/O-die precis som Intel gjorde med Arrandale.

I det läget så

  • är påverkan hos CPU-delen noll, där finns ingen GPU

  • kostnaden för att designa två I/O-dies ska vägas mot att designa en som används i alla modeller, är inte alls säkert att det ens blir billigare att ha två varianter!

  • när Nvidias köp av Arm går igenom och när OneAPI-användningen blir relativt utbredd skulle AMD bli ensamma om att inte ha en iGPU som standard, är betydligt enklare att få bred användning av något om alla programutvecklare i praktiken kan förutsätta att stöd finns. D.v.s. är en risk för AMD att inte ha en iGPU, de har faktiskt redan tappat ledartröjan i iGPU-prestanda då både Intel och framförallt Apple gått om

Apple visar redan nu hur värdefull en "stark" iGPU är när stödet finns i OS och många applikationer. Apple har också tagit steg två i "heterogena system" då M1 utöver "världens snabbaste iGPU" också har en NPU för acceleration av machine-learning.

Användningen av ML kommer explodera, man får en liten försmak i program som Pixelmator Pro just hur fantastiska saker man kan göra med NPUer (d.v.s. vad man kan göra när ML-kapacitet är så hög att man kan göra rätt avancerade saker i realtid). För ML gäller NPU > GPU > CPU, är rätt stora steg här!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Skrivet av pacc:

Alltså släpp det här med kiselyta en gång för alla,
det är ju bara 39x0 och 59x0 som ens använder två chiplets med cores - resten av alla ryzen har väldigt mycket ledigt utrymme för en GPU.
Så i teorin så kan ju AMD fortsätta sälja 12 och 16-kärniga processorer utan GPU till den kundkretsen, men om ni lyssnar på Yoshman så önskar de nog också att varje core får balanserad tillgång till en GPU för avlastning.

Personligen hade jag gärna köpt en 8-kärning APU då en sådan dator med lätthet fått plats i nätaggregatet på en större och säkert också kostat mindre för hela datornnän sweetspot för dagens grafikkort.

Så, låt oss titta närmare på din personliga avvägning här.

En 5800x med 8 kärnor och ett chiplet kostar ~4000kr och en 5900x med 12 kärnor och två chiplets kostar ~6000kr. Om vi tar en 5800x och lägger till ett chiplet för GPU och tar 6000kr för den, vilken processor hade du köpt? Om vi lyckas pressa ned priset till 5000kr? Vart går gränsen för dig?

Själv så skulle jag kunna tänka mig att lägga ~500kr om jag får tillgång till minst 2 display port, annars 0 kr. Om det innebär någon som helst avdrag i prestanda pga ström-budget eller liknande är det kört direkt.

Visa signatur

/Hej hopp!