AMD Ryzen 5 2400G och Ryzen 3 2200G "Raven Ridge" med Vega-grafik

Permalänk
Medlem

@Yoshman

Tycker det ser ut som den presterar som förväntat. Med valen de har gjort är lösningen inte riktigt menad att ersätta ens instegs-GPUer för lättare spelande. Från AMD skulle jag helst välja minst en sexkärnors processor också, och det alternativet får man inte heller.

I bärbara är ju mobila Raven Ridge inget man använder för att annonsera en dator som fungerar bra till spel heller, utan där parar man ihop den med Vega Mobile eller GTX 1050 Ti åtminstone om man vill erbjuda en produkt som klarar spel någorlunda. Valet av fyra kärnor och att de är riktade mot ultraportabla gör ju dock att de tävlar mot Intels processorer med fyra kärnor och 15W TDP. Känns som de hoppades på att Intel skulle hålla sig till tvåkärnors med HT i den klassen.

Visst hade de kunnat göra en produkt med fler beräkningsenheter i den integrerade grafiken, t.o.m. utan att tänka på att behöva mer än 2-kanals DDR4. Är ju val de inte gjorde helt enkelt. Hur som helst, det är ju en produkt för bärbara i första hand som de lanserat på AM4.

Permalänk
Medlem

@tintinj: Håller med dig, hade varit mycket intressant att få Sweclockers tanke/känsla kring dessa som kontor, HTPC, streaming av film/musik eller navigering av kodi eller andra media packet för omslag etc, eller webläsarspel.

Visa signatur

Skärm: Acer XB271 HU, Keyboard: Corsair k95
Moderkort: Asus Prime-A Z690, GPU: RTX 4080
CPU: Intel i7 13700k, Ram: 32Gb DDR5 6000Hz
Chassi: Lian Li Lancool 3, Högtalare: ALTEC LANSING 5.1 THX
Disk 1: WD 850x 1Tb, Disk 2: WD 850x 2Tb,PSU: Seasonic Prime 1000w

Permalänk
Skrivet av Yoshman:

Om målet är att köra film i 4k fungerar ju vilken iGPU-lösning som helst om man tar aktuella modeller. Men är inte Chromecast Ultra en väsentligt bättre produkt för just det användarfallet (går att köra filmen på mobilen/pekplattan och dra upp bilden på TV)?

Skrivet av Dr. MASS:

Har du bråttom med detta bygge ? Irriterande nog har typ 99% av alla AM4 moderkorten officielt endast stöd för HDMI 1.4b via en APU. Kanske du kan hinna vänta på AM4 400 chipset serie som släpps första kvartalet i år (sista mars kanske). AM4 400 series kanske har HDMI 2.x (vill hellst se HDMI 2.1, men det är väl ett önsketänkande). De flesta filmer är väl ändå i 30Hz och då fungerar ju HDMI 1.4b. Men youtube och annat som sänds kanske i 60Hz fungerar ju ej om du inte drar ner det till 30Hz om det nu går.

Skrivet av anon78208:

@S-FighterPilot:
@bulybasha:

Kodning och avkodning av video görs på separata block i kislet, inte i generella beräkningsenheter så både CPU- och GPU-belastning borde ligga nära noll när man kollar på video så länge formatet stöds av hårdvaran. Då kvitter det förmodligen om man köper en 2200G eller 2400G eftersom dessa videoavkodningsblock troligtvis är identiska i båda varianterna.

Vet att de har stöd för AVC och HEVC i minst 4k, och har även sett antydan till att de har ordentligt hårdvarustöd för VP9 vilket är första gången för AMD. Polaris och de tidigare Vega-korten hade någon sorts hybridläge för VP9 som nyttjade OpenCL, men det är ingen riktig hårdvaruavkodning och det fungerade bara på Windows.

Edit: Förövrigt tycker jag denna typ av information är någon jag brukar sakna i recensioner. Skulle uppskatta om SweC kunde sammanfatta lite kort vad det finns för videostöd i prylarna som testas, både CPU'er och GPU'er. Kör gärna DXVA Checker, vdpauinfo, vainfo och liknande program och sammanfatta vilket stöd som finns och inte finns.

Nja, det är ingen jättebrådska med bygget. Jag tror nog att en riktig dator är nog att föredra då det kommer nog bli en del BluRay-filmer spelade där. För visst är inte den komprimerade skiten från nätet i näreheten av vad man fortfarande får på BluRay. Och visst vore det bättre med bättre HDMI-standard så man kan åtminstone köra 60Hz.

Visa signatur

Nuvarande rigg: CPU: AMD R7 3700X, RAM: G.Skill Flare X, GPU: EVGA 1080Ti FTW3, Moderkort: Gigabyte GA-AX370-Gaming K7 (F51g), HDD: Samsung 840 SSD Pro Basic, WD Black Caviar 1TB SATA II, CPU-kylare: Corsair H115i (Noctua NF-A14), Chassi: Fractal Design R5, PSU: Seasonic Prime GX 1000

Permalänk
Medlem
Skrivet av Elektron:

Jag förstår inte riktigt poängen med dessa APU, en beg dator eller en ny xbox känns som vettigare köp i mitt tycke.

Hur ska jag spela lol, dota2, csgo, ff14 online osv osv på Xbox? Jag spelar inga mmo, moba eller fps på konsol och därmed går den väck. Spelar bara bildspel på min Xbox one.

Skickades från m.sweclockers.com

Visa signatur

Ryzen 7 2700 @ 4.0Ghz, X470 Taichi, 16gb ram @ 3200 mhz, GTS V8 Cpu Cooler, Gigabyte 5700XT.

Permalänk
Medlem

Den största frågan är väl hur den presterar i att mina crypto?

Permalänk
Medlem
Skrivet av Viochee:

Den största frågan är väl hur den presterar i att mina crypto?

#17251511

Visa signatur

12c/24t 4.0GHz (Zen2) • 2x16GiB 3200MHz C14 • RTX 2080 FE 1965MHz 7000MHz • X570 I PW • Ghost S1 MKII

Permalänk
Medlem
Skrivet av anon78208:

Siffran tre kom jag fram till genom eget laborerande när jag höll på att modifiera Freesync-spannet på min skärm. Dels så kan jag se hur skärmens frekvens (i skärmens OSD) förändrar sig samtidigt som jag följer frame-raten i mjukvara, och dels så kunde man vid vissa lite mer udda EDID-värden få fram en tydlig gräns där man kan se att skärmen flimrar eller att bilden blir väldigt ryckig just i övergången mellan fungerande och icke fungerande Freesync då skärmen plötsligt kan hoppa mellan lägsta och högsta möjliga frekvens.

Någon bättre källa än så kan jag tyvärr inte ge, men det var iallafall väldigt tydligt att det var siffran tre som gällde i mitt fall. Osäker på om det gäller alla skärmar eller olika versioner av drivrutinen dock, men jag skulle säga att det troligtvis alltid är tre.

I ditt fall fungerar Freesync precis som vanligt mellan 48 och 144 fps. Säg att din framerate i ett ögonblick dippar ner till 47fps. Då kommer samma bildruta skickas ut två gånger vilket gör att skärmen uppdaterar bilden i 47*2 = 94hz vilket är inom det normala Freesync-spannet, men eftersom det är två identiska bildrutor så kommer dina ögon se det som 47fps, utan tearing och utan stuttering.

Skulle man kunna säga att frameraten 16fps-47fps visar dessa framerates men med perfekt frametime? Är det vad du menar med "utan stuttering"?

Visa signatur

Gilla min Guide till sweclockers tävlingen! :D : #12510535

Min Sweclockers-låt som aldrig deltog i Jultävlingen. Enjoy! https://www.youtube.com/watch?feature=player_embedded&v=g7gof...

Permalänk
Medlem
Skrivet av JonkenPonken:

BCLK brukar väl inte påverka temperaturen nämnvärt? Är CPU ratio som eldar (vad jag fått lärt mig iaf).

Temperatur är en dålig måttstock i dessa sammanhang, BCLK och CPU ratio har väldigt lite med temperatur att göra, det som är avgörande är hur mycket värme som produceras och hur den transporteras bort. När det gäller hur mycket som produceras så är spänning och frekvens helt avgörande och det är inte svårt att spekulera att en CPU som drar 60-75W oklockat borde dra 120-160W med en sådan överklockning.
Temperaturskillnaden på 3 grader kan ju vara att fläkten på kylaren knappt snurrade oklockat medans den gick för fullt på det klockade systemet.
Men det får en att undra varför BCLK-klockning fungerar så bra, vilken komponent i CPU'n är det som inte skalar med multiplen?

Skrivet av Yoshman:

Har kollat igenom 5-6 tester av Raven Ridge och ser inte att något har ändrats kring APU-konceptet, d.v.s. en "stark" iGPU. För mig känns det fortfarande som en lösning i jakt på ett problem.

AMD drömmer väl om att fler än Adobe (och lite nischade saker) ska ta till vara på resurserna i deras APU men de flesta mjukvaruföretag är nöjda om deras programvara fungerar efter man lagt in nya funktioner för användarna, inte om den går att göra snabbare samt att de funktionerna som en APU kan ge sällan direkt användbara i många applikationer.
Vad AMD skulle behöva är en riktig kioskvältare till programvara som utför något många vill ha och som utnyttjar APU-funktionaliteten på ett bra sätt, den som kommer på något sådant kan säkert få en rejäl summa i investering från AMD.

Har precis som dig svårt att se den riktiga nyttan med dessa, för långsamma för spel och outnyttjad kisel för det mesta annat men så kom jag tänka på en kollega som brukar ta ett 10-minuters break ibland och spela CoD mot bottar (kommer inte ihåg vilken release men kanske Black Ops II) på sin laptop med i7-5500U och han hade säkert blivit glad om grafiken såg lite bättre ut men jag har svårt att se att utvecklare som spelar en gammal CoD-version 10 minuter i veckan kan vara speciellt stor målgrupp för AMD så man undrar ju lite vad deras target audience är.

Visa signatur

kill -s SIGCHLD `pidof Kenny`
bash: Oh my god, they killed Kenny
init: You Bastards

Permalänk
Medlem
Skrivet av Aleshi:

Ja inte spelar jag FPS på en konsol. Det är just därflr jag vill spela vissa spel vid HTPCn. Istället för vanliga datorn. Olika spel avnjutes på olika sätt. Just därför jag vill ha en APU till HTPCn också.
Konsoler har fördelar, bland annat vissa unika spel. Men prestandan gentemot PC-kpmponenter är inte något bra argument för konsol.

Inget slår en 10-15m HDMI-kabel till stationära datorn? Eller har du ännu längre än så? Jag kör HDMI från stationära till min tv och en lång USB-hubb med RF-mottagare till tangentbord och mus. Gillar inte att kompromissa med prestandan eller köpa dubbla burkar i onödan.

Visa signatur

Gilla min Guide till sweclockers tävlingen! :D : #12510535

Min Sweclockers-låt som aldrig deltog i Jultävlingen. Enjoy! https://www.youtube.com/watch?feature=player_embedded&v=g7gof...

Permalänk

Mycket märkligt i mitt tycke att inte ha med Core i7 5775C in integrerade grafik-testerna. Denna är ju ändå Intels vassaste.

Permalänk
Medlem

Jag har en nuc6i7 idag med en 6700hq och om jag tittar på spelprestandan så skiljer det inte mycket mellan iris pro 580 och denna vega krets runt 7% till amd fördel. Måste säga att jag är besviken eftersom jag var sugen på en ny dator i miniformat

Visa signatur

Blank

Permalänk
Medlem
Skrivet av _Merc_:

https://www.youtube.com/watch?v=FntY5rYR4cE APUer kräver högt klockad DDR minne för att prestera bra.

Bra test som visar att snabba minnen gör att denna cpun till och med kör om ett 1030. Intel är inte ens med på banan när man ser till total prestanda. Har svårt att köpa att produkten får så lågt betyg när det har minst 50% mer spelprestanda än konkurrenten Intel. Om amd skulle släppa ett grafikkort somvar minst 50% snabbare än Nvidias snabbaste grafikkort skulle det bara ge bra produkt?? Som ni skriver själva Intel ger bildspel när amd ger spelbar prestanda.

Skickades från m.sweclockers.com

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Skrivet av houze:

Temperatur är en dålig måttstock i dessa sammanhang, BCLK och CPU ratio har väldigt lite med temperatur att göra, det som är avgörande är hur mycket värme som produceras och hur den transporteras bort. När det gäller hur mycket som produceras så är spänning och frekvens helt avgörande och det är inte svårt att spekulera att en CPU som drar 60-75W oklockat borde dra 120-160W med en sådan överklockning.
Temperaturskillnaden på 3 grader kan ju vara att fläkten på kylaren knappt snurrade oklockat medans den gick för fullt på det klockade systemet.
Men det får en att undra varför BCLK-klockning fungerar så bra, vilken komponent i CPU'n är det som inte skalar med multiplen?

AMD drömmer väl om att fler än Adobe (och lite nischade saker) ska ta till vara på resurserna i deras APU men de flesta mjukvaruföretag är nöjda om deras programvara fungerar efter man lagt in nya funktioner för användarna, inte om den går att göra snabbare samt att de funktionerna som en APU kan ge sällan direkt användbara i många applikationer.
Vad AMD skulle behöva är en riktig kioskvältare till programvara som utför något många vill ha och som utnyttjar APU-funktionaliteten på ett bra sätt, den som kommer på något sådant kan säkert få en rejäl summa i investering från AMD.

Har precis som dig svårt att se den riktiga nyttan med dessa, för långsamma för spel och outnyttjad kisel för det mesta annat men så kom jag tänka på en kollega som brukar ta ett 10-minuters break ibland och spela CoD mot bottar (kommer inte ihåg vilken release men kanske Black Ops II) på sin laptop med i7-5500U och han hade säkert blivit glad om grafiken såg lite bättre ut men jag har svårt att se att utvecklare som spelar en gammal CoD-version 10 minuter i veckan kan vara speciellt stor målgrupp för AMD så man undrar ju lite vad deras target audience är.

Jo, självklart beror det väl på hur personen programmerat kylningen. Har man bra kylning och kör max flås, så behöver inte CPU bli varmare än 3 grader idle vs max. Hur en processor är designad ligger inte på mitt bord, utan sa bara vad jag fått lära mig när det gäller OC. Ration drar mer än BCLK.

Permalänk
Medlem
Skrivet av Chris_Kadaver:

Inget slår en 10-15m HDMI-kabel till stationära datorn? Eller har du ännu längre än så? Jag kör HDMI från stationära till min tv och en lång USB-hubb med RF-mottagare till tangentbord och mus. Gillar inte att kompromissa med prestandan eller köpa dubbla burkar i onödan.

Flickvännen och jag tenderar att använda båda datorerna samtidigt.

Permalänk
Avstängd
Skrivet av sesese:

Bra test som visar att snabba minnen gör att denna cpun till och med kör om ett 1030. Intel är inte ens med på banan när man ser till total prestanda. Har svårt att köpa att produkten får så lågt betyg när det har minst 50% mer spelprestanda än konkurrenten Intel. Om amd skulle släppa ett grafikkort somvar minst 50% snabbare än Nvidias snabbaste grafikkort skulle det bara ge bra produkt?? Som ni skriver själva Intel ger bildspel när amd ger spelbar prestanda.

Skickades från m.sweclockers.com

men vissa företag är mer lika än andra

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem
Skrivet av sesese:

Bra test som visar att snabba minnen gör att denna cpun till och med kör om ett 1030. Intel är inte ens med på banan när man ser till total prestanda. Har svårt att köpa att produkten får så lågt betyg när det har minst 50% mer spelprestanda än konkurrenten Intel. Om amd skulle släppa ett grafikkort somvar minst 50% snabbare än Nvidias snabbaste grafikkort skulle det bara ge bra produkt?? Som ni skriver själva Intel ger bildspel när amd ger spelbar prestanda.

Skickades från m.sweclockers.com

Strulig lansering med icke optimerad BIOS drog ner betyget, förhoppningsvis löser AMD detta fort

https://www.youtube.com/watch?v=H1FUKgOh1pM

Jayz2cents hade också strul, men han tyckte ändå det var en bra produkt osv då han antar att det kommer att fixas

Permalänk
Medlem
Skrivet av ThomasLidstrom:

Tack för en intressant recension!
AMDs 2400G vs Intel 8100 + Nvidio 1030
Dvs 1050:- vs 1850:-

En nobrainer om du frågar mig.

Har bra potential för HTPC/konsoldödare till låg kostnad

Glöm inte moderkorten!

Ett B350 mobo kostar ca 750kr

För nuvarande generation intel går ett moderkort på minst 1100kr

Dvs. 1800kr vs 2950kr

Synd att DDR4 är så dyrt just nu.

Annars tycker jag AMD har lyckats med något väldigt prisvärt som kan passa ens föräldrar eller något som vill spela lättare spel på en extrem budget.

Det är väl fortfarande en bit kvar till konsolprestanda och det vore kul om Vega 20 hittade in i en APU också.

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem

Imponerande prestanda, till riktigt bra pris!
2200G och 2400G är ju riktigt bra APUer för folk på budget med skaplig spelprestand om man drar ner lite på vissa inställningar.
Köp en av dessa APUer och bygg ett billigt system, som sedan kan uppgraderas med en mellanklass GPU kanske RX580 eller GTX1060, vid ett senare tillfälle när priserna kommit ner till normala nivåer, dessa kort ligger ju runt ca 3500kr idag för 8GB/6GB modellerna.
Synd bara att RAM prisena har dragit iväg på senaste tiden.
Bra instegsprestanda för gamern på budget, med uppgraderings möjligheter.
Dessa kan nog också bli väldigt populära i billiga OEM maskiner.
Eller varför inte bygga ett väldigt kompakt system, som även klarar spel med skaplig prestanda.

Permalänk
Avstängd

Kan bli riktigt trevliga allt i allo burk av 2200an där man får spel prestanda nog att köra rätt ok spel och skulle duga rätt bra för min del när jag mest spelar halv retro rpg och Kerbal besige och liknande och fallout 4 rullar tom rätt ok med lite oc och tråkiga för en budget burk är väll minnes priserna som är åt helvete idag

Visa signatur

i3 6100 - MSI b150m pro-vd - 8gb 2133 ddr4 - GTX 950 GAMING 2G - z400s 120gb ssd - 1tb WD blue - Corsair 500w

Permalänk
Datavetare
Skrivet av houze:

AMD drömmer väl om att fler än Adobe (och lite nischade saker) ska ta till vara på resurserna i deras APU men de flesta mjukvaruföretag är nöjda om deras programvara fungerar efter man lagt in nya funktioner för användarna, inte om den går att göra snabbare samt att de funktionerna som en APU kan ge sällan direkt användbara i många applikationer.
Vad AMD skulle behöva är en riktig kioskvältare till programvara som utför något många vill ha och som utnyttjar APU-funktionaliteten på ett bra sätt, den som kommer på något sådant kan säkert få en rejäl summa i investering från AMD.

Tror tyvärr att det är just "AMD drömmer", d.v.s de hoppas på att någon på eget initiativ ska göra detta jobb. Det kommer inte hända!

Finns en anledningen varför Nvidia har långt fler personer som jobbar med programvara än som jobbar med HW-design samt varför Intel är i topp-fem vad det gäller att bidra till öppen programvara. Om någon ska använda din HW får du själv se till att sänka inträdesbarriärerna, det minsta man man begära är att det finns programvara som gör det enkelt att lägga in stöd (typ CUDA och i fallet Photoshop har Intel gjort en hel del som primärt de gjort för att Iris Graphics laptops ska kunna flexa sina GPGPU muskler).

AMD är ofta bra på att inse vad som borde göras, men de sakar uthållighet. GPGPU har funnits i ~10 år, är extremt sällan något så pass stor förändring i programutveckling tar mindre än 10 år innan de får något relevant genomslag (undantaget är HPC som kan vara riktigt snabba att plocka upp ny teknik, där är t.ex. GPGPU en självklarhet idag).

Ett exempel är SyCL, det behövs absolut något likt detta för att OpenCL ska ha någon chans mot CUDA. Idag är det långt enklare att lägga in CUDA stöd jämfört med OpenCL stöd i sin applikation, SyCL bygger på OpenCL men lyfter det till en nivå som gör det lågt mer likt CUDA. AMD startade SyCL men verkar helt tappat intresse, det drivs nu främst av olika ARM-tillverkare med Xilinx som ledare för detta projekt.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Inaktiv

Framgångsvågen heter var en ashole. Gör bra produkter, skapa EULA där det står att prousers ej får använda denna, lägg in spärrar så att grafikkortet endast ska fungera för Averge Joe (saknas pci passthrough) , hänvisa andra mer tekniska användare att det finns att köpa grafikkort riktade till er för endast 70 000kr.

Amd har inte pengar att vara en ashole, de försöker tillmötesgå alla. Hittils har Nvida tack vare cuba haft ett stort försprång, idag vet jag inte vilket grafikkort man skulle köpa. Inte ett Nvida och AMD har ingen kraftig nog så det blir en.. (S3 virge hette ett grafikkort vill jag minnas, ja en sådan får det bli..)

Permalänk
Inaktiv

2200'an såg ut att vara den perfekta uppgraderingen till HTPCn men att AM4 moderkorten fortfarande endast kommer med HDMI 1.4 gör att jag står över. Hoppas på att AMD gör rätt med 400-serien som kommer snart.

Lite besviken över att den är såpass törstig som den är också. 10W högre strömförbrukning än en i3-8100 med GT1030.

Permalänk
Medlem
Visa signatur

..:: trickeh2k ::..
Windows 11 Pro - Ryzen 7 7800X3D - ASUS TUF B650-PLUS - Kingston FURY Beast DDR5 64GB CL36 - MSI MAG A850GL - MSI RTX 4080 VENTUS 3X OC - Acer Predator XB271HU - ASUS VG248QE - QPAD MK-85 (MX-Brown)/Logitech G PRO Wireless - Samsung 960 EVO 250GB, Samsung EVO 860 500GB, SanDisk Ultra II 480GB, Crucial MX500 1TB, Kingston KC3000 2TB - Steelseries Arctic 5 - Cooler Master Masterbox TD500 Mesh V2

Permalänk
Medlem
Skrivet av Elektron:

Jag förstår inte riktigt poängen med dessa APU, en beg dator eller en ny xbox känns som vettigare köp i mitt tycke.

En fördel för APU och liknande är att man kan sätta in dom i mindre, kompakta chassin där inga grafikkort ryms. Och man vill köra spel i enklare upplösningar samt inställningar. (Nu tänker jag på mer moderna spel, äldre går det ju bättre med)
Jag kan inte se framför mig folk som har ett vanligt chassi köpa dessa produkter om man nu inte har det väldigt begränsat med pengar.

Skrivet av Chris_Kadaver:

Gällande dessa processorer, om vi ska vara lite realistiska och tittar rent historiskt... Hur många här kan ärligt säga att de någonsin köpt en APU och faktiskt använt den till spel? När de första APU:erna från AMD kom så utlovades spelbar prestanda i många titlar på låga inställningar och dom försökte dessutom marknadsföra dessa som crossfirekompatibla med grafikkort ur budgetsegmentet. Att köpa hårdvara som med nöd och näppe kan spela dagens spel på lägsta inställningarna i 720p. Det är lite som att kasta pengarna i sjön.

Jag var faktiskt en av dom. För mig begav det sig med Kaveri, en a10-7700K med 2133mhz ddr3-minnen i ett Antec isk 310 (det chassit har nu i sig a12-9800, är dock inte så imponerad av det)
Jag var ute efter ett litet chassi som tog upp lite i plats samt var enkelt att ta med sig.

Jag visste vilken prestanda det skulle ligga på men det bekymrade mig inte. Spelen har varierat från nyare till äldre om än det inte har varit tunga och moderna AAA-spel. Några spel som man har spelat är Diablo 3, World of warships, LoL, Dota 2, Smite, CS:GO där upplösningen har varit 1920 med varierande inställningar beronde på fps:en har legat.

Skrivet av _Merc_:

https://www.youtube.com/watch?v=FntY5rYR4cE APUer kräver högt klockad DDR minne för att prestera bra.

Intressant, jag försöka hitta så många tester där de provar olika hastigheter av minnen för att därefter kunna läsa av vad som ger mest pengar för pengarna. Om det räcker med 2666mhz eller om 3600 gör ett stort hopp i prestanda.
Jag gissar att 3600 är maxtaket just nu för apuer?

Visa signatur

SpelDator: | Asus ROG Strix XG438Q 4K 120hz| AMD Ryzen 5 5600X 3.7 GHz 35MB| B450 I AORUS PRO WIFI| MSI Radeon RX 6800 16GB | Corsair Force MP510 1920GB M.2 NVMe | Samsung EVO 860 2TB | Seagate Guardian BarraCuda 2.5 5TB| Corsair 32GB (2x16GB) DDR4 3600MHz CL18 Vengeance LPX Svart| Ghost S1 MK2| Corsair SF750 750W 80+ Platinum| Logitech MX Sound| WD My Passport V2 USB 3.0 4TB| Buffalo Mediastation Ultra-Thin Portable Blu-Ray writer| Logitech Logitech G604 Lightspeed

Permalänk
Medlem

Tycker 2200G/2400G låter som en ganska bra produkt (bara att vänta tills den faktiskt funkar som den ska), bra prestanda sett till priset om man inte har budget (ekonomisk eller fysisk) för dedikerade grafikkort. Om dessa kommer komma som pro modeller blir det rakt av perfekt för vanliga ingångsdatorer för företag som köper bulk, fast i sådana fall blir det nog tal om någon NUC eller framtida surface ripoff.

Som OEM tillverkare måste det vara galet roligt att ha många olika alternativ till intel så de kan lansera fler produkter i fler marknadsområden, kanske t.o.m. fixa till sig lite bättre offerter.

Nu är det bara att vänta på att priserna för DRAM och GPUer minskar, då kanske man äntligen har råd att uppgradera datorn .

Visa signatur

"Oh glorious cheeseburger… we bow to thee. The secrets of the universe are between the buns..."
"All my farts come straight from hell, you're already dead if you notice a smell"

Permalänk
Medlem

Sådär ja, har länge väntat på dessa!
2200G och ett ITX moderkort till mitt kommande projekt(NAS), tyvärr finns det inte många ITX brädor att välja bland, och Asus har inte ens en grafikdel på ITX brädor de har. Jag har haft väldigt bra erfarenhet med Asus. Just nu verkar det bli en ASRock.

Någon som vet om det är flera ITX brädor som skall komma, och i så fall när?

Permalänk
Datavetare
Skrivet av anon159643:

Framgångsvågen heter var en ashole. Gör bra produkter skapa EULA där det står att prousers ej får använda denna, lägg in spärrar så att grafikkortet endast ska fungera för Averge Joe (saknas pci passthrough) , hänvisa andra mer tekniska användare att det finns att köpa grafikkort riktade till er för endast 70 000kr.

Amd har inte pengar att vara en ashole, de försöker tillmötesgå alla. Hittils har Nvida tack vare cuba haft ett stort försprång, idag vet jag inte vilket grafikkort man skulle köpa. Inte ett Nvida och AMD har ingen kraftig nog så det blir en.. (S3 virge hette ett grafikkort vill jag minnas, ja en sådan får det bli..)

Varför skulle någon använda en teknik för att företaget bakom är asholes och älskar EULAs?

Om vi tar CUDA vs OpenCL exemplet. Är inte en betydligt enklare förklaring till att folk tenderar först lägga till CUDA stöd och långt senare funderar man eventuellt på OpenCL att det helt enkelt är betydligt enklare (==billigare) att lägga in stöd för CUDA? Det är mycket bättre verktyg kring CUDA jämfört med OpenCL, det är extremt mycket enklare att komma igång med CUDA (just detta täpper SyCL till när/om det går från slideware till verklighet).

Annat exempel är SSE/AVX.

Så här ~20 år efter att SSE lanserades är dess användning väldigt utbredd (i de program där SIMD är en bra idé). Men kollar vi på vad som hände efter vägen så skapades initialt MMX. "Ingen" använde MMX till något, nu berodde det både på att tekniken sög på det mest men nog än mer på att enda realistiska sättet att stödja tekniken var att hacka assembler... (MMX var faktiskt helt OK till att mixa ljudkanaler på gamla SoundBlaster16 då kortet bara hade en HW-kanal, fast man fix hacka allt i ASM).

SSE var betydligt vettigare som teknik, ändå användes det väldigt lite första 10 åren. Problemet? Enda realistiska sättet att använda det var att hacka assembler och senare kunde man även använda det via "compiler intrinsics" (som egentligen är C-ifiering av assemblerinstruktionerna så extremt low-level). Resultat: för komplicerat och därmed för dyrt att använda tekniken för den stora massan.

Spola fram till sommarens lansering av Skylake SP (och även SKL-X). Dag 1 kunde man i en lång rad se rejäl vinst av AVX512, t.ex. i Matlab. Skillnaden? Finns en de-facto standard för API mot matrisberäkningar, BLAS och LAPACK, och den mest effektiva implementationen man hittar på x86 är MKL som Intel lägger rejäla resurser på och ger ut gratis (enda de bryr sig om är att sälja fler Xeons, om program får boost av AVX512 -> större anledning att köpa en ny Xeon som har stöd för detta). MKL fungerar även lysande på Ryzen (faktiskt snabbare än AMDs eget BLAS/LAPACK bibliotek).

Slutligen, vi ser exakt samma sak hos RPi. Finns en rad andra single-board-computers som är väsentligt kraftigare, i alla fall på pappret. RPi är ändå oftast bäst i praktiken då det finns programvara som gör det möjligt att utnyttja den lilla HW-kraft som ändå finns.

HW är värdelös utan programvara som gör det enkelt (== billigt) att använda HW i de program folk faktiskt använder!

Finns en del saker på skrivbordet där en APU (iGPU som är relativt kraftig) skulle kunna ge en boost, idag faller det nästan alltid på att avsaknad av enkla sätt att få ut den potentiella kraften i faktiska program. Man kan nog ändå hoppas lite på ARM-tillverkarna, de har nog mest på att vinna då mobila enheter har mycket att vinna på GPGPU då det är extremt strömeffektivt på vissa typer av uppgifter!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Jag saknade information och test av VCN (Video Core Next) då det är något som inte finns i tidigare Ryzen och något jag kan tänka mig att många som köper dessa APU:er kommer använda.
Hur pass bra fungerar VCN? VCN är det som ersätter tidigare UVD och VCE.
Fungera all format som utlovas både decode och encode?

Permalänk
Inaktiv
Skrivet av Yoshman:

Varför skulle någon använda en teknik för att företaget bakom är asholes och älskar EULAs?

Om vi tar cuda så har det haft en trög start, där mjukvarutillverkare har valt en teknik och kör med den. I vissa fall kostar grafikkorten en spottstyver emot programvaran så om man har fel grafikkort så får man byta.
Om man frågar vissa tillverkare om grafikproblem och säger att man har ett t.ex Nvida titan V för 30 000kr,
https://www.nvidia.com/sv-se/titan/titan-v/

Så svarar de på ett lite finare sätt att släng skiten och återkom när du har skaffat ett riktigt grafikkort, din guldsupport gäller ej för konsumentdritt.

Så mjukvaruutvecklare är inga helgon. Varför Cuba fick ett sånt stort fäste kan diskuteras, jag är dock ej insatt i detta. Det enda jag vet är att mjukvarutillverkare generellt är snåla/lata. T.ex Autocad, där man på ett sätt kan göra en csv export. Problemet är att när man gör exporten på en dator med svensk format så gör skriver den både decimaltal och csv avskiljaren med kommatecken. Folk har gnällt i 10år hos tillverkaren, men kommer det någon rättning. Å nej.. Lösningen är att själv ändra cultursetting på sin dator varje gång..
Och så håller det på.. Jag förväntar mig högst stöd för ett ramverk/hårdvara hos många tillverkare.
Det enda undantag är applikationer som säljs i extrema volymer.

*edit*
Att alla tillverkare inte ens väljer att supporta Geforcekort säger inte lite om hur "lata" de är, de testar enbart mjukvaran emot så lite som de kan. Samma sak gäller såklart utveckling, minsta möjliga är fullt tillräckligt.

Permalänk
Medlem

Någon mer än jag som alltid saknar benchmarks på t.ex. cryptonight? Lite halvintressant eftersom jag antar att det är prestandan i just denna algoritm som säljer MINST 90% av alla Vega-kort.