AMD Ryzen 5 2400G och Ryzen 3 2200G "Raven Ridge" med Vega-grafik

Permalänk
Hedersmedlem

En recension som visar vad minnet gör för resultatet:
https://www.youtube.com/watch?v=FntY5rYR4cE

Visa signatur

Stalin var så gammal att de fick Len´in. ;)

Permalänk
Medlem
Skrivet av Yoshman:

Kikar vi på historien så har marknaden visat väldigt svalt intresse för "starka" iGPUer, ...

... vilket inte är så konstigt då dessa varit just "starka" och inte Starka!
Nu finns ju för första gången en iGPU som faktiskt går att använda till lite mer än bara visa bild, så förutsättningarna har ändrats.

Skrivet av Bengt-Arne:

Ryzen 3 2200G - 1078kr
ASRock A320M-DGS - 576kr
...

Lägg på någon hundralapp eller två så fås ett moderkort som tillåter överklockning!

Skrivet av Kenneth:

... Processordelen hänger inte riktigt med konkurrerande modell från Intel...

Vilken är konkurrerande modell?
* Core i3-7100 ligger på samma pris som 2200G.
* 2400G matchas prismässigt av Core i3-8350K och i5-6400.
Intels alternativ är nog snabbare i enkeltrådsprestanda, men inte så mycket mer.

Skrivet av bsk!:

Men handen på hjärtat, finns det någon gamer som lirar på gt 1030/apu? APU performance känns mer relevant på budgetlaptops o dylikt.

Som i mitt föregående inlägg:
APUn ger grafik en fattig gamer nog kan stå ut med tills det finns pengar att köpa ett riktigt grafikkort.
Valet mellan en (spel)dator med APU eller ingen dator alls känns ganska lätt...

Permalänk
Medlem

Vilken grym plattform som amds nya ändå är. Börja med 2200G när den sedan inte räcker så kan man till och med välja en 8/16 trådig CPU och ändå köra med samma moderkort. Uppgraderings möjligheterna blir fantastiska.

Skickades från m.sweclockers.com

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av Icte:

Inte cryptonight men här finns lite siffror på NiceHash:

http://www.legitreviews.com/amd-ryzen-5-2400g-mining-performa...

Tack, jag fiskade inte upp några exceptionella prestandasiffror (290 H/s) vilket gör en Ryzen 1600 förmodligen till ett bättre alternativ då den ger upp till 550 H/s tack vare 19MB L2/L3 cache. Uppsidan är väl att miners inte tömmer lagret på samma sätt som de diskreta Vega-alternativen.

Dock ger en Intel 6600K inte ens 200 H/s så en liten "cash-back" får man ju om man väljer Ryzen 2400G.

Permalänk
Medlem

Har beställt en 2200G med ett Asrock B350 kort och 16GB ECC minne som jag tänkt använda som filserver med ZFS i botten. Bara att hoppas att ECC stödet inte är borttaget i APUerna, det verkar ju funka fint med Ryzen om man har ett vettigt moderkort.

Permalänk
Medlem

Håller med tidigare talare om att utbudet av moderkort med HDMI 2.0 är riktigt dåligt, finns så vitt jag kan se endast 2st...Come an.

Skickades från m.sweclockers.com

Visa signatur

🖥️ Fractal Design Node 804 • Asrock Fatal1ty X99M Killer • Intel 5820K • Noctua NH-U12S • Corsair Vengeance 16GB • Gigabyte GTX 970 • be quiet! Dark Power Pro 550w • 2x Intel 520 120GB • 2x 1TB • 1x 3TB
💻 Microsoft Surface Pro (8GB/128GB)
 iPhone 11 64GB 🎧 SONY WH-1000XM3
🎵📲 SONY NW-ZX300 64GB [Region changed & Mr Walkman custom firmware loaded] + 256GB xtra • Audio Technica ATH-M50X

Permalänk
Medlem
Skrivet av RVX:

Håller med tidigare talare om att utbudet av moderkort med HDMI 2.0 är riktigt dåligt, finns så vitt jag kan se endast 2st...Come an.

Vad spelar det för roll när AMD ändå inte stödjer PlayReady 3.0, eller stöds av Cyberlink för UHD-Blu-ray? Du måste ju ändå gå runt kopieringsskydden olagligen och missar många lagliga tjänster. DP till HDMI-adapter duger fint här, extra kostnad givetvis. 400 kr är inte hela världen däremot.

Permalänk
Medlem
Skrivet av Petterk:

Vad spelar det för roll när AMD ändå inte stödjer PlayReady 3.0, eller stöds av Cyberlink för UHD-Blu-ray? Du måste ju ändå gå runt kopieringsskydden olagligen och missar många lagliga tjänster. DP till HDMI-adapter duger fint här, extra kostnad givetvis. 400 kr är inte hela världen däremot.

För min del är bättre att stödet finns från början, men visst kan man gå runt det med adapter som du säger, men för mig är det en kostnad som är värd att betala, om utbudet hade varit större då.

Visa signatur

🖥️ Fractal Design Node 804 • Asrock Fatal1ty X99M Killer • Intel 5820K • Noctua NH-U12S • Corsair Vengeance 16GB • Gigabyte GTX 970 • be quiet! Dark Power Pro 550w • 2x Intel 520 120GB • 2x 1TB • 1x 3TB
💻 Microsoft Surface Pro (8GB/128GB)
 iPhone 11 64GB 🎧 SONY WH-1000XM3
🎵📲 SONY NW-ZX300 64GB [Region changed & Mr Walkman custom firmware loaded] + 256GB xtra • Audio Technica ATH-M50X

Permalänk
Medlem
Skrivet av RVX:

För min del är bättre att stödet finns från början, men visst kan man gå runt det med adapter som du säger, men för mig är det en kostnad som är värd att betala, om utbudet hade varit större då.

Kommer ju komma nya moderkort också. Sen så kör färdigbyggda/barebones SFF-maskiner med Raven Ridge säkert med HDMI 2.0/600 MHz.

Hela X470 och B450-serien kommer ju snart. Fokus där är fortfarande inte på Raven Ridge, men mer designat med det i åtanke än tidigare kort.

Permalänk
Medlem
Skrivet av Petterk:

Kommer ju komma nya moderkort också. Sen så kör färdigbyggda/barebones SFF-maskiner med Raven Ridge säkert med HDMI 2.0/600 MHz.

Hela X470 och B450-serien kommer ju snart. Fokus där är fortfarande inte på Raven Ridge, men mer designat med det i åtanke än tidigare kort.

Får hoppas på det, styrkretsen i sig är inte det viktigaste. Om det är B450 eller X470, utan det är 2.0 jag är ute efter, blir ett köp direkt det kommer till ett m-ATX alternativt m-ITX kort

Visa signatur

🖥️ Fractal Design Node 804 • Asrock Fatal1ty X99M Killer • Intel 5820K • Noctua NH-U12S • Corsair Vengeance 16GB • Gigabyte GTX 970 • be quiet! Dark Power Pro 550w • 2x Intel 520 120GB • 2x 1TB • 1x 3TB
💻 Microsoft Surface Pro (8GB/128GB)
 iPhone 11 64GB 🎧 SONY WH-1000XM3
🎵📲 SONY NW-ZX300 64GB [Region changed & Mr Walkman custom firmware loaded] + 256GB xtra • Audio Technica ATH-M50X

Permalänk
Datavetare
Skrivet av Olle P:

... vilket inte är så konstigt då dessa varit just "starka" och inte Starka!
Nu finns ju för första gången en iGPU som faktiskt går att använda till lite mer än bara visa bild, så förutsättningarna har ändrats.

Hur kan man beteckna den som "stark" när det krävs minst DDR4-3200 minnen för att 2400G ens ska matcha GT1030 som är den långsammaste dGPU av alla aktuella modeller (MX150 är faktiskt högre klockad med samma antal CUDA-kärnor)?

Och det är inte första gången, Iris Pro 580 lanserades för två år sedan.

Över de spel SweC testar är 2200G 50 % snabbare jämfört med A10-7870, 46 % om man använder geometriskt medel *.

2400G är 66 % snabbare jämfört med A10-7870, 62 % med geometriskt medelvärde.

Finns ett par tester av Iris Pro 580 (Skull Canyon NUC), över de spel som TechSpot testade är i7-6770HQ 43 % snabbare jämfört med A10-7870, 41 % med geometriskt medel.

Det betyder alltså att 2200G är ca 3 % snabbare jämfört med Iris Pro 580 medan 2400G är ca 15 % snabbare. Betänk då att i7-6770HQ/Iris Pro 580 lanserades januari 2016 och har 45 W TDP mot 65 W hos Raven Ridge...

Så här långt har Iris Pro 580 haft noll OEM-vinster, enda produkten som använt denna är just Skull Canyon NUC. Intel har därför inte gjort några nya GPUer snabbare än Iris Graphics 650 (Iris Pro 580 har 50 % högre teoretisk kapacitet jämfört med Iris Graphics 650). Är få enheten utöver Apples 13" MBP som använder Iris Graphics, enda jag kommer på är toppmodellen av Surface Pro.

Om en "stark" iGPU är en sådan bra idé, varför är då OEM:er så kallsinniga mot Iris Graphics och Iris Pro? Kanske därför att de ändå är för klena för spel samt för "vanligt" arbete räcker standardmodellen gott och väl även i 4k upplösning. För videoavkodning använder man ändå fixed-function block (de är långt mer energieffektivt jämfört att använda GPUn).

* Geometrisk medelvärde är ofta är ett bättre värde för den här typen av jämförelser (geometriskt medelvärde påverkas mindre av enskilda avvikande värden, geometrisk medelvärde är alltid lika eller mindre än aritmetiskt medelvärde).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Hur kan man beteckna den som "stark" när det krävs minst DDR4-3200 minnen för att 2400G ens ska matcha GT1030 som är den långsammaste dGPU av alla aktuella modeller (MX150 är faktiskt högre klockad med samma antal CUDA-kärnor)?

Och det är inte första gången, Iris Pro 580 lanserades för två år sedan.

Över de spel SweC testar är 2200G 50 % snabbare jämfört med A10-7870, 46 % om man använder geometriskt medel *.

2400G är 66 % snabbare jämfört med A10-7870, 62 % med geometriskt medelvärde.

Finns ett par tester av Iris Pro 580 (Skull Canyon NUC), över de spel som TechSpot testade är i7-6770HQ 43 % snabbare jämfört med A10-7870, 41 % med geometriskt medel.

Det betyder alltså att 2200G är ca 3 % snabbare jämfört med Iris Pro 580 medan 2400G är ca 15 % snabbare. Betänk då att i7-6770HQ/Iris Pro 580 lanserades januari 2016 och har 45 W TDP mot 65 W hos Raven Ridge...

Käre Yoshman.

Du tycker inte det är nån väsentlig skillnad på 2200G för 99$ och de $434 som i7-6770HQ är listad för?
Sedan kostar väl hela Skulltrail NUCen 6-7000kr?

Det som är hela grejen för mig personligen är prisvärdheten även om dessa APUer är ointressanta för egen del.

Som det konstaterats i tråden kan man här få ihop ett Ryzen APU system för ca 3000kr.

En extrem skillnad mellan intel mot AMD och nVidia är att intel i princip ALDRIG optimerar sina drivrutiner för spel som AMD och nVidia gör. Därför kommer sällan den teoretiska prestandan till godo.
Det är också antagligen därför intel sätter ett Vega chip i sin nya NUC, de slipper allt som har med drivrutiner och speloptimeringar att göra.

Sedan finns det en del andra sidor som testat att överklocka både CPU och GPU del med väldigt trevliga resultat.

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem

Jag har inte läst igenom alla kommentarer men någon nämnde att den går att överklocka rejält. Det verkar vara en sanning med modifikation enligt Gamers Nexus:
https://youtu.be/nTdgB63xGX8

Permalänk
Datavetare
Skrivet av Herr Kantarell:

Käre Yoshman.

Du tycker inte det är nån väsentlig skillnad på 2200G för 99$ och de $434 som i7-6770HQ är listad för?
Sedan kostar väl hela Skulltrail NUCen 6-7000kr?

Det absolut viktigaste ha har klart för sig här är svaret var riktat mot denna utsaga av @Olle P

"Nu finns ju för första gången en iGPU som faktiskt går att använda till lite mer än bara visa bild, så förutsättningarna har ändrats."

Kanske missar något här, men för mig ser detta helt ut som ett påstående om att den tekniska kapaciteten aldrig tidigare funnits i en iGPU, vilket är uppenbarligen fel.

Är helt införstådd med att i7-6770HQ är en dyrare krets, men priset var inte del av diskussionen här. Och för det högre priset fick man detta för två år sedan, högre CPU-prestanda, ungefär samma GPU-prestanda till en lägre TDP...

Skrivet av Herr Kantarell:

Det som är hela grejen för mig personligen är prisvärdheten även om dessa APUer är ointressanta för egen del.

Om prisvärdheten är nyckeln, varför har alla APUer som lanserat så här långt floppat hos OEM:er?

Och om priset för i7-6770HQ är det som sänkte den, hur kommer det sig att i7-6700HQ blev en väldigt framgångsrik krets? i7-6770HQ har ett listpris som ligger 10-15 % högre jämfört med i7-6700HQ, den prisskillnaden ger 3 gånger högre teoretisk iGPU-kapacitet vid ungefär samma TDP och samma CPU-kapacitet. Säger inte det något om hur mycket OEM:er värderar en "stark" iGPU?

Och här är min andra huvudpoäng, marknaden verkar värdera en "stark" iGPU till i princip noll. Ingen tackar nej om den kommer gratis, men den finessen motiverar i sig inte ett högre pris.

Sedan, listpris för Intels mobila kretsar (och även deras serverkretsar), har relativt låg korrelation med vad OEM faktiskt betalar. Finns en rad fall där CPUn skulle stå för väl över 50 % av enhetskostnaden om någon faktiskt betalade listpris. Skull Canyon NUC kostar ~5500 kr, det är ju inklusive chassi, strömförsörjning, moderkort och CPU (RAM+SSD krävs för en komplett dator).

Skrivet av Herr Kantarell:

Det som är hela grejen för mig personligen är prisvärdheten Som det konstaterats i tråden kan man här få ihop ett Ryzen APU system för ca 3000kr.

Vilket har varit sant för varenda APU som släps, ändå har succén lyst med sin frånvaro. Är det inte möjligt att produkten helt enkelt fyller en nisch med i stort sätt noll potentiella kunder?

Skrivet av Herr Kantarell:

En extrem skillnad mellan intel mot AMD och nVidia är att intel i princip ALDRIG optimerar sina drivrutiner för spel som AMD och nVidia gör. Därför kommer sällan den teoretiska prestandan till godo.
Det är också antagligen därför intel sätter ett Vega chip i sin nya NUC, de slipper allt som har med drivrutiner och speloptimeringar att göra.

Sedan finns det en del andra sidor som testat att överklocka både CPU och GPU del med väldigt trevliga resultat.

Ok, vi tar dina ord som lag här. Hur förklarar du att en "extrem skillnad" i drivrutinskvalité mellan AMD och Intels GPUer leder till att Radon Vega 8 och Iris Pro 580 i praktiken presterar i det närmaste identiskt i spel när den teoretiska kapacitet är

Radeon Vega 8: 512 stream cores @ 1,10 GHz = 1,13 TFLOPS
Iris Pro 580: 72 EUs @ 1,05 GHz = 1,21 TFLOPS

D.v.s. de har väldigt snarlik teoretisk kapacitet och presterar ungefär likvärdigt i spel. Något av detta måste då vara sant

  • AMD har lika usla drivare som Intel

  • Vega är mindre effektiv i spel jämfört med Iris Pro

  • Spel är trots allt lika väl testade och optimerade för Intels GPU som AMDs

Vi vet i princip att sista punkten är falsk, många spel lanseras nog utan att aldrig testas på en Intel GPU.

En betydligt rimligare förklaring är att Intels drivare är inte alls så usla som man kan tro, problemet är helt enkelt att deras GPUer inte har mer rå kraft än vad spelprestanda visar. Nvidia har absolut en design som sett till sin kapacitet presterar bättre än både GCN/Vega och HD Graphics, medan GCN/Vega och HD Graphics drar hyfsat jämnt sett till teoretisk kapacitet. Detta om vi tittar på spel.

Läser man Intels whitepaper för HD Graphics inser man rätt snabbt att designen idag är långt mer anpassad för GPGPU än för spelgrafik, mer så än GCN (den designades gör både Compute och spelgrafik). Och här gäller det omvända, Iris Pro 580 prestera bättre i GPGPU laster jämfört med GT1030 sett till kretsarnas teoretiska kapacitet (kan inte uttala mig om AMDs kretsar här då jag inte har en CGN GPU att testa på).

Intels kommande krets med Vega är inte på något sätt jämförbar med en APU/CPU+iGPU, det är en CPU+dGPU som sitter i samma paket. D.v.s. det är långt mer en attack mot Nvidias mobila dGPUer än något annat. Den kretsen kommer inte på något sätt ersätta deras iGPUer, Vega-kretsen är ett alternativ för spelinriktade maskiner.

I denna krets löser man problemet APU/iGPU aldrig kan lösa kring spelprestanda: minnesbandbredd. APU/iGPU kommer alltid suga för spel då spel gör saker som är extremt bandbreddkrävande. Därför kommer APU/iGPU riktat mot spel nog alltid misslyckas.

"Killer app" för APU/iGPU är lägre pris och högre energieffektivitet jämfört med CPU+dGPU för "normalt" kontorsarbete. Finns också en potentiell "killer app" i att CPU+iGPU delar RAM, något man sedan OpenCL 2.1 kan specialoptimera för på ett sätt som möjliggör GPGPU-acceleration av flera fall som av latensskäl inte är vettigt med dGPU (därför inte heller möjligt i Intels kommande Vega-utrustade krets).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Chris_Kadaver:

Hur imponerande den integrerade grafiken än är, så är den fortfarande inte "good enough" ens till budgetgamern. Jag kan tänka mig att spela många spel på "low", eftersom många spel idag fortfarande ser helt okey ut i jämförelse med för några år sedan. Men att behöva backa till både low och 720p och ändå få dipps nedåt 30-40 fps håller inte. Eller att ens behöva köra 720p i moba-titlar... Det är också för svag prestanda helt enkelt. Hade den integrerade grafiken hållit dippar ovanför 48fps-sträcket där freesync oftast kickar in, på low i 1080p, då tycker jag att detta hade varit ett alternativ att överväga. Men det är en bit kvar dit tyvärr. Och minnespriserna är ju också en faktor som gör att man tappar sugen tyvärr. Dual channel och 3000mhz är ett krav för att bibehålla någon form av prestanda. I övrigt hängde 2400G med i5 8400 på processorsidan i rätt många arbetsscenarior.

Jag vet inte jag, alla är nog inte så kräsna.

Jag sitter fortfarande på min 6 år gamla laptop, med i7 3610qm, nvidia 640m Le 2gb, 6gb ram samt en ssd disk.

Lirade nyligen igenom rise of the tombraider i 720p medium inställningar och lyckas hålla 25 - 30 fps, vilket fungerar fint för mig då jag inte är så kräsen längre. Allra helst då jag vet hur gammal min dator är samt hur krävande spel som t.ex rise of the tomb raider är.
Mina specs är inte ens supportade för minimum men det fungerar ändå.

I mitt fall som har det väldigt illa ekonomiskt så ser denna processor lovande ut, bygga ihop en liten budget burk och lite senare köpa bättre gfx kort.

Permalänk
Medlem

@Kenneth:

Vilken BIOS version och drivrutin körde ni?
Hittade bara nvidia info i artikeln (om jag inte är blind)

Är det någon annan som fått grafikdrivisarna att funka? AMD tyckte att jag skulle ha 17.7 och det gick inte så bra =(

Permalänk
Redaktion
Praktikant ✨
Skrivet av Blk:

@Kenneth:

Vilken BIOS version och drivrutin körde ni?
Hittade bara nvidia info i artikeln (om jag inte är blind)

Är det någon annan som fått grafikdrivisarna att funka? AMD tyckte att jag skulle ha 17.7 och det gick inte så bra =(

AMD Radeon Software 17.7 (17.40.3602) för Raven Ridge. Har lagt till detta i recensionen.
Den skarpa versionen finns här via AMD:s supportsida.

Gigabyte-kortet kördes med BIOS-version T20h.

Permalänk
Medlem

Väldigt intressanta och prisvärda APU. Tyvärr så är timingen svindålig då minnespriserna är så vidrigt höga, det tar ju nästan bort hela "bästa billigaste" aspekten totalt. Speciellt då de högre specade minnesmodulerna kostar multum. Om man nu verkligen är på budget så är en (priser i Finland) G4560(67€) plus ett H110 moderkort (29€), 8GB DDR4 2133 (ca 100€) och ett GT 1030 (80-90€) ett faktiskt prisvärdare alternativ och uppgraderingsmöjligheter finns då ännu.

Permalänk
Medlem
Skrivet av Petterk:

Vad spelar det för roll när AMD ändå inte stödjer PlayReady 3.0, eller stöds av Cyberlink för UHD-Blu-ray? ...

Varför skulle jag efterfråga UHD-kompatibilitet när jag ändå inte kan nyttja mer än FHD?
Hade jag tyckt mina pengar räckte till produkter med UHD skulle nog pengarna räcka till alla delar i hela systemet...

Skrivet av Yoshman:

Hur kan man beteckna den som "stark" när det krävs minst DDR4-3200 minnen för att 2400G ens ska matcha GT1030 som är den långsammaste dGPU av alla aktuella modeller ...
Och det är inte första gången, Iris Pro 580 lanserades för två år sedan.

Skrivet av Herr Kantarell:

Käre Yoshman.
Du tycker inte det är nån väsentlig skillnad på 2200G för 99$ och de $434 som i7-6770HQ är listad för? ...
Det som är hela grejen för mig personligen är prisvärdheten...

Skrivet av Yoshman:

Det absolut viktigaste ha har klart för sig här är svaret var riktat mot denna utsaga av @Olle P
"Nu finns ju för första gången en iGPU som faktiskt går att använda till lite mer än bara visa bild, så förutsättningarna har ändrats."
Kanske missar något här, men för mig ser detta helt ut som ett påstående om att den tekniska kapaciteten aldrig tidigare funnits i en iGPU, vilket är uppenbarligen fel. ...
Om prisvärdheten är nyckeln, varför har alla APUer som lanserat så här långt floppat hos OEM:er?

1. GeForce GT 1030 är varken långsammaste eller billigaste dGPU på marknaden.
* GeForce 210 och GT 710 finns i rikligt utbud och kostar hälften. Visst är de av äldre generationer, men det finns ingen anledning för Nvidia att ersätta dem med nya (billigare) modeller i samma prestandaklass, och uppenbarligen vill de inte pressa ner GT 1030 i samma prisklass. (Jag köpte själv en GT 710 att användas med Ryzen 3 sent i höstas, så de är definitivt "aktuella".)
* Minne för 3200 MHz kostar bara marginellt mer än långsammare, så det är inget argument i sammanhanget.

2. Angående mitt påstående att det tidigare inte funnits iGPU med samma prestanda så baserades det på att jag aldrig hört talas om Iris Pro 580.
Jag är helt enig med Herr Kantarell att priset självklart är en väsentlig del i ekvationen, och nämnt detta om jag alls känt till Iris Pro. Det är svårt att hitta en målgrupp som har praktiskt behov av en högpresterande processor men bara mindre behov av grafikkapacitet. (Hur många köper i dag Core i7 med avsikt att bara nyttja iGPUn?) Om Iris Pro suttit i en Core i3, inte nämnvärt påverkat TDP och haft ett prispåslag på 100-200 kr jämfört med HD-grafiken så skulle det nog blivit en hit!

Grundfrågan var ju 'Varför har inte "starka" iGPU blivit en hit tidigare?'.
Svaret kvarstår: Det har fram till nu inte funnits någon iGPU som varit tillräckligt "stark" i förhållande till målgruppen för CPUn.
(Sedan kan man diskutera om inte AMDs A-serie åtminstone kan räknas som viss framgång, eftersom de bevisligen stått för en signifikant del av AMDs CPU-försäljning och sålts i datorer via OEM. Sitter en i min frus laptop, till exempel.)

Permalänk
Datavetare
Skrivet av Olle P:

Varför skulle jag efterfråga UHD-kompatibilitet när jag ändå inte kan nyttja mer än FHD?
Hade jag tyckt mina pengar räckte till produkter med UHD skulle nog pengarna räcka till alla delar i hela systemet...

1. GeForce GT 1030 är varken långsammaste eller billigaste dGPU på marknaden.
* GeForce 210 och GT 710 finns i rikligt utbud och kostar hälften. Visst är de av äldre generationer, men det finns ingen anledning för Nvidia att ersätta dem med nya (billigare) modeller i samma prestandaklass, och uppenbarligen vill de inte pressa ner GT 1030 i samma prisklass. (Jag köpte själv en GT 710 att användas med Ryzen 3 sent i höstas, så de är definitivt "aktuella".)
* Minne för 3200 MHz kostar bara marginellt mer än långsammare, så det är inget argument i sammanhanget.

2. Angående mitt påstående att det tidigare inte funnits iGPU med samma prestanda så baserades det på att jag aldrig hört talas om Iris Pro 580.
Jag är helt enig med Herr Kantarell att priset självklart är en väsentlig del i ekvationen, och nämnt detta om jag alls känt till Iris Pro. Det är svårt att hitta en målgrupp som har praktiskt behov av en högpresterande processor men bara mindre behov av grafikkapacitet. (Hur många köper i dag Core i7 med avsikt att bara nyttja iGPUn?) Om Iris Pro suttit i en Core i3, inte nämnvärt påverkat TDP och haft ett prispåslag på 100-200 kr jämfört med HD-grafiken så skulle det nog blivit en hit!

Grundfrågan var ju 'Varför har inte "starka" iGPU blivit en hit tidigare?'.
Svaret kvarstår: Det har fram till nu inte funnits någon iGPU som varit tillräckligt "stark" i förhållande till målgruppen för CPUn.
(Sedan kan man diskutera om inte AMDs A-serie åtminstone kan räknas som viss framgång, eftersom de bevisligen stått för en signifikant del av AMDs CPU-försäljning och sålts i datorer via OEM. Sitter en i min frus laptop, till exempel.)

Ok, förtydligande. GT1030 är den långsammaste GPU Nvidia fortfarande tillverkar. Även om det råkar finnas någon butik som råkar ha en 486:a till försäljning skulle jag ändå inte räkna den på något sätt.

Men i stället för att diskutera om en viss GPU ska räknas eller ej, vi kan i alla fall konstatera att med riktigt snabbt (och dyrt, vilket enligt er två då gör hela prylen moot) RAM kan Radeon Vega 10 matcha GT1030.

GT1030 lanserades maj 2017 och låg redan från start under 1000 kr. Hur många har stoppat in denna GPU i en maskin som det minsta är tänkt att spela på? Finns inget perfekt svar, men låt oss kika på Steam HW Survey.

GT1030 finns inte ens på listan utan är med i gruppen "övrigt" även för DX12-kompatibla kort (som filtrerar bort många äldre modeller). Jaja, men gamers som använder Steam kör kanske inte low-end kort då!

GTX1060, GTX1050Ti samt GTX1050 ligger på plats #1, #4 och #6 så de är tvärtom bland de mest populära korten. Till och med GTX1070Ti som många anser är meningslös + att den lanserades november 2017 ligger ändå någonstans i mitten.

Ligger inte förklaringen: GTX1050 må vara långsam, men det är i alla fall praktiskt möjligt att dra ned inställningarna till en nivå i dagens spel att det i någon mån blir "spelbara". GT1030 är så pass svag att många spel är ospelbara även med lägsta inställningar, andelen sådana spel kommer rimligen bara öka framöver. Iris Pro 580 har samma problem, vilket rimligen betyder att Radeon Vega 8/11 har samma problem.

Ser inte hur man på något sätt kan se APUer som en framgång.

Vad jag vet finns ingen officiell försäljningsstatistik som visar detta. Det närmaste man kan komma är att AMD fått gjort en multimiljonavskrivning på APU-kretsar när de överskattade efterfrågan, AMD existerar statistiskt sett knappt på mobila enheter vilket inte riktigt indikerar framgång.

Vi ser att Intel har haft väldigt svårt att övertyga OEM om att välja deras kretsar med starkare iGPU. Är noll för Iris Pro, är också bara några enstaka för Iris Graphics trots x3 resp x2 högre iGPU-kapacitet för en väldigt liten procentuell ökning av listpriset på kretsen.

Ligger inte slutsatsen: "få tackar nog nej till snabbare iGPU, men ingen kommer betala extra för det" väldigt nära till hands då?

Är i.o.f.s. en prognos/gissning. Får se hur fel den var om ett år...

Edit: angående eventuellt crappiga drivare. GT1030 har en teoretisk kapacitet på 1127 GFLOPS, Radeon Vega 8 har 1126 GFLOPS medan UHD630 (i3-8100/i5-8400) bara når 422 GFLOPS.

Över de spel SweC testar i 1920x1080 är
GT1030 38 % mer effektiv jämför med Radeon Vega 8 och 29 % mer effektivt jämfört med UHD630 sett till faktisk FPS kontra kapacitet.
UHD630 är alltså 7 % mer effektiv än Radeon Vega 8 justerat för faktiskt kapacitet.

Så allt snack om "värdelösa GPU-drivare för Intel" håller inte riktigt, HW är helt enkelt inte kraftigare. Sett till FPS/FLOPS drar AMD och Intel helt jämnt, Nvidia ligger dock klart före!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Olle P:

Varför skulle jag efterfråga UHD-kompatibilitet när jag ändå inte kan nyttja mer än FHD?
Hade jag tyckt mina pengar räckte till produkter med UHD skulle nog pengarna räcka till alla delar i hela systemet...

Nu var det ju inte dig jag diskuterade med, många i tråden var intresserade av att köra Raven Ridge till sin TV och du kan knappt köpa något annat än UHD idag – det är inte en kostnadsfråga om man vill ha UHD eller inte i det scenariot. Givetvis kan Raven Ridge köra HEVC och H.264 4K-UHD @ 60p, vill man köra annat än piratmaterial kan det dock bli problem. Alla som kör som HTPC vill inte heller lägga till diskret Nvidia-grafikkort eller chassi som har plats för ett, det löser inte heller UHD-Blu-ray-problemet och det är inte någon kompromiss alla vill göra för att få t.ex. Netflix att fungera.

Permalänk
Redaktion
Praktikant ✨

Kompletterade prestandatesterna med Core i7-8700K och Ryzen 7 1800X. Kan krävas en CTRL+F5 för att se de uppdaterade diagrammen.

Permalänk
Medlem
Skrivet av JonasT:

Kompletterade prestandatesterna med Core i7-8700K och Ryzen 7 1800X. Kan krävas en CTRL+F5 för att se de uppdaterade diagrammen.


Om ni har i7-6770HQ skulle ni kunna få med den cpun då det ska vara intels snabbaste gpu som är intigrerad

Skickades från m.sweclockers.com

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av JonasT:

Kompletterade prestandatesterna med Core i7-8700K och Ryzen 7 1800X. Kan krävas en CTRL+F5 för att se de uppdaterade diagrammen.

Hej,
Bra test! Skulle ni kunna lägga till värden då TDP:n konfigurerats ned till 45W?

Visa signatur

Bästa trådstarten någonsin.

Asus Zenbook UX430: 8550U, MX150, 16 GiB, 1 TB

Permalänk
Medlem

Der8auer ge sig på en delid:

Visa signatur

GamingRig: Cooler Master NR200P/ASUS ROG STRIX B550-I GAMING/AMD Ryzen 5 5700G/Noctual NH-D12L/Corsair SF750 Platinum/Crucial Ballistix Elite 2x8GB 3600MHz/

Permalänk
Medlem
Skrivet av Yoshman:

Kikar vi på historien så har marknaden visat väldigt svalt intresse för "starka" iGPUer, AMD missbedömde efterfrågan på första APU-generationen, Llano, så pass grovt att man fick göra en rejäl avskrivning på kretsar som inte gick att sälja.

Innan Raven Ridge lanserades hade Intel iGPU "kronan" med sin Iris Pro 580 under två års tid (i7-6770HQ lanserades januari 2016). Antal system som använder Iris Pro 580 så här långt: ett enda (det är Intels egen Scull Canyon NUC).

Kikar man t.ex. på Overwatch i "high" ligger GT1030 27 % högre jämfört med Iris Pro 580 (den senare har 45 W TDP och DDR4-2400 MT/s RAM).

Nu kommer säkert invändningen: men i7-6770HQ är så dyr! Tja, till viss del sant men den är 10-15 % dyrare jämfört med i7-6700HQ som har varit väldigt framgångsrik bland OEM:er. 10-15 % högre pris för 3 gånger högre teoretisk iGPU-prestanda är uppenbarligen något som noll OEM-tillverkare sett något värde i.

För ungefär samma pengar får man endera

  • Ryzen 5 2400G + 16 GB DDR4-3200 (snabbare RAM gör verkligen nytta för en APU och 3200 MT/s RAM gör att 2400G ibland matchar GT1030) + moderkort

  • Pentium G4560 + 16 GB DDR4-2400 (snabbaste RAM som stöds) + GTX1050 + moderkort

TechSpot testade just detta fast där GTX1050 ersatts med GT1030, redan då är det i genomsnitt prestandafördel för den senare. G4560+GT1030 startar från 600+700=~1300 SEK.

Som motvikt till ditt klagomål kring SweC betyg på Ryzen 3 2200G skulle man kunna ställa: hur kan man ge något "utmärkt" som egentligen inte ändrar det koncept som så här långt totalt ratats av marknaden?

Personligen hoppas jag GPGPU tar fart, för "stark" iGPU har en poäng där när man begränsar det till bärbara (som inte är jättemycket begränsning givet att ~70 % av PC-nyförsäljning är någon form av bärbar).

Tyvärr kommer konceptet fortsätta misslyckas så länge man envisas med att pusha det som en plattform för spel. CPU+MX150 (som är samma krets som GT1030) är marginellt dyrare, mer energieffektivt och presterar därför bättre så fort man är TDP-begränsad (vilket är fallet i bärbara). Lyften man blicken och tittar på faktiska spelresultat ser man att GT1030/Raven Ridge klarar ju egentligen inte av att driva speciell många spel ens idag...

g4560 +1030 om du vill ha ett system som är större och sämre än 2400G sedan når du +25%prestanda med oc på 2400G https://www.youtube.com/watch?v=EL9hMx91Lz8

oc 3dmark 2400G 4248p https://www.3dmark.com/search?_ga=2.178430564.1347981068.1518... Ryzen 5 2400G&gpuCount=0

oc g4560 +1030 3675p https://www.3dmark.com/search?_ga=2.178430564.1347981068.1518... Pentium G4560&gpuName=NVIDIA GeForce GT 1030&gpuCount=0

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Redaktion
Praktikant ✨
Skrivet av sesese:


Om ni har i7-6770HQ skulle ni kunna få med den cpun då det ska vara intels snabbaste gpu som är intigrerad

Skickades från m.sweclockers.com

De säljs, mig veterligen, tyvärr inte i löst utförande utan endast fastlödda i färdiga datorer.

Skrivet av MakeCoke:

Hej,
Bra test! Skulle ni kunna lägga till värden då TDP:n konfigurerats ned till 45W?

Kan eventuellt kika på detta i samband med att AMD levererar fixen som behövs till Ryzen 5 2400G.

Permalänk
Medlem

@sesese, @JonasT

i7-5775C är nog bättre att jämföra med i vilket fall som helst. Illustrerar nog utvecklingen bättre.

Permalänk
Medlem

@JonasT:

Tack för svaret, men i länken är det 17.40.3701 som med F20 bios ger mig:

Någon med samma problem?

EDIT: lite windows update löste problemet.

Permalänk
Datavetare
Skrivet av sesese:

g4560 +1030 om du vill ha ett system som är större och sämre än 2400G sedan når du +25%prestanda med oc på 2400G https://www.youtube.com/watch?v=EL9hMx91Lz8

oc 3dmark 2400G 4248p https://www.3dmark.com/search?_ga=2.178430564.1347981068.1518... Ryzen 5 2400G&gpuCount=0

oc g4560 +1030 3675p https://www.3dmark.com/search?_ga=2.178430564.1347981068.1518... Pentium G4560&gpuName=NVIDIA GeForce GT 1030&gpuCount=0

Vad jag hävdar, vilket jag tycker även styrks av resultaten i de videos du länkar, är att GT1030 är pengarna i sjön om syftet med maskinen på något sätt innefattar spel.

Från prisjakt

  1. R5-2400G+billigaste B350+8 GB DDR4-2400: 1700+600+950=3250

  2. R5-2400G+billigaste B350+8 GB DDR4-3200 (krav för att matcha GT1030): 1700+600+1150=3450

  3. R5-2400G+billigaste B350+16 GB DDR4-3200 (8 GB är gränsfall då GPU tar ~2 GB): 1700+600+2000=4300

  1. G4560+billigaste H110M+8 GB DDR4-2400+GT1030: 600+500+950+700=2750

  2. G4560+billigaste H110M+8 GB DDR4-2400+GTX1050: 600+500+950+1300=3350

  3. G4560+billigaste H110M+16 GB DDR4-2400+GTX1050: 600+500+1800+1300=4200

Behöver vi ens argumentera över vilken som ger bäst spelprestanda per kr, det med råge?

Den stora skillnaden är att GTX1050 faktiskt kan driva de flesta moderna spel, självklart med rejält nedskruvade inställningar.

Ska man ovillkorligen prestandamatcha blir i alla fall inte R5-2400G billigare då det krävs snabbt RAM för att matcha GT1030. 8 GB är verkligen i minsta laget då 2 GB äts upp av iGPU.

Kul att se hur så många på SweC helt plötsligt fick ett sådant intresse för riktigt klena GPUer
Är själv genuint intresserade av dessa, gillar verkligen strömsnåla små byggen (min R5-1600+GT1030 är inte optimering av lågt pris utan för minimal ljudvolym). Fast då främst som arbetsmaskiner samt hacka lite GPGPU-saker på (kan mycket väl bli ett köp av 2200G för att ha som OpenCL-labbplattform, 2400G är inte prisvärd och ett sådant system är ju inget jag kommer använda dagligen)!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer