AMD A-serien "Carrizo" kan få staplat minne

Permalänk
Melding Plague

AMD A-serien "Carrizo" kan få staplat minne

Begränsad minnesbandbredd är ofta en flaskhals för de integrerade grafikdelarna i AMD:s processorer. Det här vill bolaget råda bot på med nästa generation, som kan få staplat minne.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Bra artikel från Corsair om att Kaveri inte kan sträcka ut benen tillräckligt med nuvarande minnesbandbredd: Understanding Kaveri

Tänkt främst som en minnes-tweak-guide för dem som äger en Kaveri. Rekommenderas.

Permalänk
Medlem

Ska bli intressant.

Visa signatur

Akashiro 0.9: Ryzen 5 7600, Radeon RX 7800XT Pure: 64/2000
https://podcasters.spotify.com/pod/show/thomaseron

Permalänk
Rekordmedlem

Billigare, snabbare och mindre...
Verkar som det är en väldigt bra kombination för att kunna bygga en prisvärd dator.

Visa signatur

R5 5600G, Asus ROG STRIX X470-F Gaming, WD SN850X 2TB, Seasonic Focus+ Gold 650W, Aerocool Graphite v3, Tittar på en Acer ET430Kbmiippx 43" 4K. Lyssnar på Behringer DCX2496, Truth B3031A, Truth B2092A. Har också oscilloskop, mätmikrofon och colorimeter.

Permalänk
Datavetare

Helt rätt prioritering. Skillnaden i teoretisk prestanda mellan A10 5xxx, 6xxx och 7xxx är rätt rejält medan den faktiska prestandan i spel är relativt liten, rätt uppenbart att GPU-delen i plattformen är brutalt begränsad av bandbredd. Till och med Intels HD5xxx GPU har ju visat sig vara rätt rejält begränsad av bandbredd med tanke på hur väldigt mycket snabbare Iris Pro är än andra modeller.

DDR4 skulle hjälpa, men det är ingen lösning, man får tänka på att t.ex. XboxOne har 4-kanaler mot relativt snabbt DDR3 men GPU-delen är ändå kraftigt begränsad av bandbredd (som i XBO fallet till stor del avhjälps med eSRAM). Att göra en budgetplattform med 4-minneskanaler är inte en framkomlig väg.

Med DDR3 och 2-kanaler är det rätt uppenbart att bandbredden helt enkelt inte räcker till för >30FPS i 1920x1080 med vettiga kvalitetsinställningar, att konsekvent kunna erbjuda detta skulle betyda att en APU blir ett reellt alternativ som enklare spelplattform (framförallt i laptops), vilket inte är fallet idag.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Hur dyrt skulle det bli att använda GDDR5 minne som PS4 gör?
Blir det för höga latenser för CPU-delen då eller blir det för dyrt?
Om vi tar relativt långsamma GDDR minnen som borde vara relativt billiga, typ 4000mhz, så har dom betydligt högre bandbredd än DDR3.

Hur kommer det fungerade med staplade minnen? Kommer man kunna köpa det själv eller kommer det vara inbyggt?
Ska man kunna komplettera med vanligt minne eller hur funkar det att uppgradera?
Blev väldigt förvirrad av den här nyheten faktiskt.

Permalänk
Medlem
Skrivet av Kilroy:

Hur dyrt skulle det bli att använda GDDR5 minne som PS4 gör?
Blir det för höga latenser för CPU-delen då eller blir det för dyrt?
Om vi tar relativt långsamma GDDR minnen som borde vara relativt billiga, typ 4000mhz, så har dom betydligt högre bandbredd än DDR3.

Hur kommer det fungerade med staplade minnen? Kommer man kunna köpa det själv eller kommer det vara inbyggt?
Ska man kunna komplettera med vanligt minne eller hur funkar det att uppgradera?
Blev väldigt förvirrad av den här nyheten faktiskt.

Nu gissar jag men förmodligen blir integrerat och att uppgradera själv blir nog svårt. Om det kommer vara på moderkortet eller på processorn är jag dock osäker, men gissar att det blir något moderkortstillverkarna får göra.

Kanske så att man får bara ett extra minne som antingen blir tillgängligt för allt eller dedikerat bara för interna GPUn som ett komplement till allt annat vi har redan.

Visa signatur

Arch - Makepkg, not war -||- Gigabyte X570 Aorus Master -||- GSkill 64GiB DDR4 14-14-15-35-1T 3600Mhz -||- AMD 5900x-||- Gigabyte RX6900XT -||- 2x Adata XPG sx8200 Pro 1TB -||- EVGA G2 750W -||- Corsair 570x -||- O2+ODAC-||- Sennheiser HD-650 -|| Boycott EA,2K,Activision,Ubisoft,WB,EGS
Arch Linux, one hell of a distribution.

Permalänk
Medlem

Känns tyvärr lite som om carrizo kommer bli som kaveri. Mao inte riktigt vad man hoppas på. Men jag blir gärna överraskad.
Skulle va kul om man kunde slippa grafikkort i stationära.

Skickades från m.sweclockers.com

Visa signatur

Regn är snö på sommarn.

Permalänk
Medlem
Skrivet av sgtspiff:

Känns tyvärr lite som om carrizo kommer bli som kaveri. Mao inte riktigt vad man hoppas på. Men jag blir gärna överraskad.
Skulle va kul om man kunde slippa grafikkort i stationära.

Skickades från m.sweclockers.com

Jo, lite så jag känner att AMD har levererat besvikelser på prestandafronten senaste typ... hundra åren känns det som. Det vore ju kul om AMD kom in matchen igen så det blev lite fight och konkurrens med Intel. Nu är ju AMD bara "poor mans chip".

Visa signatur

..:: trickeh2k ::..
Windows 11 Pro - Ryzen 7 7800X3D - ASUS TUF B650-PLUS - Kingston FURY Beast DDR5 64GB CL36 - MSI MAG A850GL - MSI RTX 4080 VENTUS 3X OC - Acer Predator XB271HU - ASUS VG248QE - QPAD MK-85 (MX-Brown)/Logitech G PRO Wireless - Samsung 960 EVO 250GB, Samsung EVO 860 500GB, SanDisk Ultra II 480GB, Crucial MX500 1TB, Kingston KC3000 2TB - Steelseries Arctic 5 - Cooler Master Masterbox TD500 Mesh V2

Permalänk
Medlem

ddr5 till dessa cpuer skulle göra allt mycket enklare. Tråkigt att man satsade på ddr4 och inte gick till ddr5 direkt som nästa miners standard.

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av sesese:

ddr5 till dessa cpuer skulle göra allt mycket enklare. Tråkigt att man satsade på ddr4 och inte gick till ddr5 direkt som nästa miners standard.

Hur tänker du då?
Det är inte så att man bara hittar på en standard och sedan följer den, man måste kunna tillverka saker som hanterar standarden också.

Permalänk
Moderator
Festpilot 2020, Antiallo
Skrivet av sesese:

ddr5 till dessa cpuer skulle göra allt mycket enklare. Tråkigt att man satsade på ddr4 och inte gick till ddr5 direkt som nästa miners standard.

Man gick på DDR4 för att DDR5 inte existerar, inte ens på papper finns specifikationerna. Du kanske menar GDDR5?

GDDR5 måste med största sannolikhet vara fastlött för att fungera. Då försvinner moduläriteten med CPU:n.

Visa signatur

 | PM:a Moderatorerna | Kontaktformuläret | Geeks Discord |
Testpilot, Skribent, Moderator & Geeks Gaming Huvudadmin

Permalänk
Medlem
Skrivet av trickysaer:

Jo, lite så jag känner att AMD har levererat besvikelser på prestandafronten senaste typ... hundra åren känns det som. Det vore ju kul om AMD kom in matchen igen så det blev lite fight och konkurrens med Intel. Nu är ju AMD bara "poor mans chip".

Akta dig! Snart vaknar AMD-fanboysen och gör ditt liv surt i den här tråden

Visa signatur

AMD RYZEN 9 5900X - ASUS ROG X470-F STRIX - 32GB DDR4 @ 3200MHz - ASUS RTX 3070 Ti

Permalänk
Medlem
Skrivet av trickysaer:

Jo, lite så jag känner att AMD har levererat besvikelser på prestandafronten senaste typ... hundra åren känns det som. Det vore ju kul om AMD kom in matchen igen så det blev lite fight och konkurrens med Intel. Nu är ju AMD bara "poor mans chip".

Iofs så håller jag med dig att AMD har blivit efter en bra bit nu och skulle vara kul om de hittade något att komma med i prestandatoppen.

Det finns ingen silver bullet som kommer lösa deras problem och man måste titta realistiskt på saken här. Prestanda processorer har inte så stor marknad och AMD har inte pengar att lägga på niche därav deras stora fokus på HSA samt budget processorer. Deras köp av ATI som blev en förlustaffär men som nu faktiskt bidrar till deras CPU avdelning och gör att de har något att konkurrera med platform mot Intel.

AMD behöver ett mirakel i deras injengör team för att utveckla en arkitektur som skulle konkurrera mot intel i x86_64 marknaden i prestandaligan.

Skrivet av Stoff3th3m4n:

Akta dig! Snart vaknar AMD-fanboysen och gör ditt liv surt i den här tråden

Din post är inte mycket bättre än vad någon fanboy i oavsätt lag skulle komma med.

Visa signatur

Arch - Makepkg, not war -||- Gigabyte X570 Aorus Master -||- GSkill 64GiB DDR4 14-14-15-35-1T 3600Mhz -||- AMD 5900x-||- Gigabyte RX6900XT -||- 2x Adata XPG sx8200 Pro 1TB -||- EVGA G2 750W -||- Corsair 570x -||- O2+ODAC-||- Sennheiser HD-650 -|| Boycott EA,2K,Activision,Ubisoft,WB,EGS
Arch Linux, one hell of a distribution.

Permalänk
Skrivet av Commander:

Iofs så håller jag med dig att AMD har blivit efter en bra bit nu och skulle vara kul om de hittade något att komma med i prestandatoppen.

Det finns ingen silver bullet som kommer lösa deras problem och man måste titta realistiskt på saken här. Prestanda processorer har inte så stor marknad och AMD har inte pengar att lägga på niche därav deras stora fokus på HSA samt budget processorer. Deras köp av AMD som blev en förlustaffär men som nu faktiskt bidrar till deras CPU avdelning och gör att de har något att konkurrera med platform mot Intel.

AMD behöver ett mirakel i deras injengör team för att utveckla en arkitektur som skulle konkurrera mot intel i x86_64 marknaden i prestandaligan.

Din post är inte mycket bättre än vad någon fanboy i oavsätt lag skulle komma med.

Antar att du menar ATI

Var det en förlust affär?
Trodde det var deras uppköp av ATI som räddade dem när bulldozer floppen kom
För deras grafikkort har ju fortfarande sålt bra

Permalänk
Medlem
Skrivet av Scitus:

Antar att du menar ATI

Var det en förlust affär?
Trodde det var deras uppköp av ATI som räddade dem när bulldozer floppen kom
För deras grafikkort har ju fortfarande sålt bra

Hah jo klart ATI. Köpet var till stor del förlustaffär då vad jag minns vid den tiden så blev köpet bra mycket dyrare och utdraget där AMD fick ta lån på miljarder för köpet. Vid köpet gick värdet upp för ATI men ner för AMD då det ansågs att priset på köpet var för stort.

En sak att komma ihåg är att köpet genomfördes 2006 under ATI's r500/r600 serie vilket var när nVidia lanserade sin G80 serie där 8800GTX tog tronen och höll den över ett år.

Visa signatur

Arch - Makepkg, not war -||- Gigabyte X570 Aorus Master -||- GSkill 64GiB DDR4 14-14-15-35-1T 3600Mhz -||- AMD 5900x-||- Gigabyte RX6900XT -||- 2x Adata XPG sx8200 Pro 1TB -||- EVGA G2 750W -||- Corsair 570x -||- O2+ODAC-||- Sennheiser HD-650 -|| Boycott EA,2K,Activision,Ubisoft,WB,EGS
Arch Linux, one hell of a distribution.

Permalänk
Medlem
Skrivet av Yoshman:

Helt rätt prioritering. Skillnaden i teoretisk prestanda mellan A10 5xxx, 6xxx och 7xxx är rätt rejält medan den faktiska prestandan i spel är relativt liten, rätt uppenbart att GPU-delen i plattformen är brutalt begränsad av bandbredd. Till och med Intels HD5xxx GPU har ju visat sig vara rätt rejält begränsad av bandbredd med tanke på hur väldigt mycket snabbare Iris Pro är än andra modeller.

DDR4 skulle hjälpa, men det är ingen lösning, man får tänka på att t.ex. XboxOne har 4-kanaler mot relativt snabbt DDR3 men GPU-delen är ändå kraftigt begränsad av bandbredd (som i XBO fallet till stor del avhjälps med eSRAM). Att göra en budgetplattform med 4-minneskanaler är inte en framkomlig väg.

Med DDR3 och 2-kanaler är det rätt uppenbart att bandbredden helt enkelt inte räcker till för >30FPS i 1920x1080 med vettiga kvalitetsinställningar, att konsekvent kunna erbjuda detta skulle betyda att en APU blir ett reellt alternativ som enklare spelplattform (framförallt i laptops), vilket inte är fallet idag.

Xbox One processor är högre klockad p.g.a mer robust kylningslösning vilket ger en fördel på nästan 10%, vilket kan vara betydande eftersom processorn på konsolerna är förhållandevis svaga.

eSRAM (192GB/s) ger högre bandbredd än GDDR5(176GB/s) i praktiken, flera utvecklarna säger nyligen att eSRAM inte är en betydande svårighet i arbetet och en del säger till och med att det är lättare att programmera till Xbox One än till PS4, förmodligen p.g.a DirectX.

Givetvis föredrar de flesta PS4 lösning på denna punkt, men jag tror som många andra att den praktiska skillnaden inte alls är så dramatiskt som vissa vill rita upp. De allra senaste spelen som kommer om ett tag har ju sagts att Xbox One kommer ha samma FPS och upplösning som PS4. Project Cars är ett exempel på snyggt spel där utvecklarna också inte har några problem med eSRAM.

Permalänk
Entusiast

Detta kanske betyder att vi får se staplat RAM även på grafikkorten inom en inte alltför avlägsen framtid då.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Datavetare
Skrivet av leafbranch:

Xbox One processor är högre klockad p.g.a mer robust kylningslösning vilket ger en fördel på nästan 10%, vilket kan vara betydande eftersom processorn på konsolerna är förhållandevis svaga.

eSRAM (192GB/s) ger högre bandbredd än GDDR5(176GB/s) i praktiken, flera utvecklarna säger nyligen att eSRAM inte är en betydande svårighet i arbetet och en del säger till och med att det är lättare att programmera till Xbox One än till PS4, förmodligen p.g.a DirectX.

Givetvis föredrar de flesta PS4 lösning på denna punkt, men jag tror som många andra att den praktiska skillnaden inte alls är så dramatiskt som vissa vill rita upp. De allra senaste spelen som kommer om ett tag har ju sagts att Xbox One kommer ha samma FPS och upplösning som PS4. Project Cars är ett exempel på snyggt spel där utvecklarna också inte har några problem med eSRAM.

XBO är mycket riktigt 10% högre klockad, dock så har den en kärna färre som är användbar för spel än PS4 (en kärna är reserverad för ljud i XBO, PS4 har separat HW för detta). Och att XBO är högre klockad har inget med kylning att göra, det var en panikåtgärd som MS gjorde för att till viss del minska gapet mot PS4. Att göra denna förändring innebar en risk då den gjordes relativt sent, vilket mycket väl kan förklara varför Sony inte gjorde samma höjning av frekvens.

Helt sant att eSRAM har högre bandbredd om man bara tittar på aggregerad bandbredd. Vad du låter bli att berätta är det inte är 192GB/s som fritt kan användas, det är ca 60GB/s för läsning och 60GB/s för skrivning mot eSRAM (32MB) + ~70GB/s (läsning och/eller skrivning) mot DDR3 (8GB) medan PS4 har 176GB/s som man disponeras fritt mot 8GB.

Men vad XBO ändå visar är att trots 70GB/s mot DDR3 jämfört med 176GB/s mot GDDR5 så är skillnaden ändå i praktiken inte milsvid tack vare eSRAM. Är därför helt rätt av AMD att stoppa in en mindre mängd minne med hög bandbredd direkt på sina APUer då det hjälper lättar trycket rätt rejält på minnesflaskhalsen.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av leafbranch:

Xbox One processor är högre klockad p.g.a mer robust kylningslösning vilket ger en fördel på nästan 10%, vilket kan vara betydande eftersom processorn på konsolerna är förhållandevis svaga.

eSRAM (192GB/s) ger högre bandbredd än GDDR5(176GB/s) i praktiken, flera utvecklarna säger nyligen att eSRAM inte är en betydande svårighet i arbetet och en del säger till och med att det är lättare att programmera till Xbox One än till PS4, förmodligen p.g.a DirectX.

Givetvis föredrar de flesta PS4 lösning på denna punkt, men jag tror som många andra att den praktiska skillnaden inte alls är så dramatiskt som vissa vill rita upp. De allra senaste spelen som kommer om ett tag har ju sagts att Xbox One kommer ha samma FPS och upplösning som PS4. Project Cars är ett exempel på snyggt spel där utvecklarna också inte har några problem med eSRAM.

Alltså, hur stort är detta eSRAM i Xbox One jämfört med GDDR5 i PS4?

Sen har PS4 betydligt fler GPU-transistorer även om Xbox Ones GPU-del också är klockad något högre.

Sen kan jag hålla med om att det inte är en gigantisk eller extrem skillnad och många överdriver den, men den är ändå betydande till fördel för PS4.

Permalänk
Medlem
Skrivet av DavidtheDoom:

Man gick på DDR4 för att DDR5 inte existerar, inte ens på papper finns specifikationerna. Du kanske menar GDDR5?

GDDR5 måste med största sannolikhet vara fastlött för att fungera. Då försvinner moduläriteten med CPU:n.

förlåt tror det är på grafikkort man skrev gddr5. Hastigheten på de moduler som grafikkort har borde man ha använt på kommande standard till internminne.

det är skillnad på 7000 och som nu 2133Mhz

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Moderator
Festpilot 2020, Antiallo
Skrivet av sesese:

förlåt tror det är på grafikkort man skrev gddr5. Hastigheten på de moduler som grafikkort har borde man ha använt på kommande standard till internminne.

det är skillnad på 7000 och som nu 2133Mhz

Den stora skillnaden som gör GDDR5 olämpligt för CPU:er är att CPU:er inte har det behov av bandbredd som GPU:er har utan är betydligt känsligare än höga latenser. GDDR5 har mycket mycket högre accesstider än DDR3/DDR4 och det ger sämre prestanda och ett mindre responsivt system.

T ex är skillnaden mellan 1600MHz CL9 och 2133MHz CL11 inte ca 30% som hastigheterna på modulerna kanske visar:
2133/1600 = 1,33
Utan:
(2133/11)/(1600/9) = 1,09

Dvs ca 9% i faktiskt skillnad i faktiskt teoretisk minnesaccesser.
2133MHz CL11 ger ca 194Miljoner minnesaccesser per sekund.
1600MHz CL9 ger ca 174Miljoner minnesaccesser per sekund.

Sedan har självklart även 2133MHz CL11 högre minnesbandbredd men det som begränsar CPU:er är som sagt minnesaccesserna och accesstiden för dessa. I GPU användning för t ex spel så är minnesbandbredd viktigare än latenserna. Om man GPGPU beräknar vissa minnesintensiva algoritmer så är latenser ännu en gång viktigare. T ex Scrypt algoritmen för att beräkna vissa kryptovalutor.

Visa signatur

 | PM:a Moderatorerna | Kontaktformuläret | Geeks Discord |
Testpilot, Skribent, Moderator & Geeks Gaming Huvudadmin

Permalänk
Entusiast
Skrivet av sesese:

förlåt tror det är på grafikkort man skrev gddr5. Hastigheten på de moduler som grafikkort har borde man ha använt på kommande standard till internminne.

det är skillnad på 7000 och som nu 2133Mhz

GDDR5 och DDR3 bygger i grunden på samma teknik men de är optimerade för olika saker. GDDR5 är designat för extremt hög bandbredd medan DDR3 prioriterar latensen. Ett grafikkort ta äta upp nästan hur mycket minnesbandbredd som helst och de är inte särskillt känsliga för latensen. En CPU behöver däremot inte så mycket bandbredd. Minnesfrekvensen har inte varit ett problem sen Core 2. Däremot är en CPU betydligt mer känslig för latensen. Så det är olika verktyg för olika tillämpningar. Sen går inte GDDR5 inte i 7 GHz utan det är en effektiv frekvens. De kör i praktiken med samma frekvenser som DDR3 fast de skickar mer data per cykel (grovt förenklat) vilket ger en högre effektiv frekvens.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av DavidtheDoom:

Den stora skillnaden som gör GDDR5 olämpligt för CPU:er är att CPU:er inte har det behov av bandbredd som GPU:er har utan är betydligt känsligare än höga latenser. GDDR5 har mycket mycket högre accesstider än DDR3/DDR4 och det ger sämre prestanda och ett mindre responsivt system.

T ex är skillnaden mellan 1600MHz CL9 och 2133MHz CL11 inte ca 30% som hastigheterna på modulerna kanske visar:
2133/1600 = 1,33
Utan:
(2133/11)/(1600/9) = 1,09

Dvs ca 9% i faktiskt skillnad i faktiskt teoretisk minnesaccesser.
2133MHz CL11 ger ca 194Miljoner minnesaccesser per sekund.
1600MHz CL9 ger ca 174Miljoner minnesaccesser per sekund.

Sedan har självklart även 2133MHz CL11 högre minnesbandbredd men det som begränsar CPU:er är som sagt minnesaccesserna och accesstiden för dessa. I GPU användning för t ex spel så är minnesbandbredd viktigare än latenserna. Om man GPGPU beräknar vissa minnesintensiva algoritmer så är latenser ännu en gång viktigare. T ex Scrypt algoritmen för att beräkna vissa kryptovalutor.

Teorin är så men Kaverin skalar lite upp och ner. Den skalar främst med minneshastigheten i de flesta test inte bara Gpu intensiva så länge det inte är jättestor skillnad latens vilket påverkar men inte särskilt mkt. Sen ger den mer vid vissa hastighetsökningsintervall än andra. Steget från 2133mhz till 2400 ger nästan ingenting alls. Medan från 2400 till 2600mhz skalar den bra. Även med latens inräknat så följer inte detta något förväntat mönster.

Så 2133 är sweetspot vad som går idag respektive de fåtal som lyckas köra sina moduler i 2600mhz.
Mina moduler klarar 2400mhz med min APU men jag kör dom i 2133Mhz.

Om AMD ska lyckas så måste de göra ett bättre jobb med att få minnesmodultillverkare att släppa mer produkter som är matchade till med klar XMP eller vad nu AMDs motsvarande teknik heter. Eftersom så mycket hänger på minnena så borde de skapa mer minnesprodukter med partners.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Pudeln:

Teorin är så men Kaverin skalar lite upp och ner. Den skalar främst med minneshastigheten i de flesta test inte bara Gpu intensiva så länge det inte är jättestor skillnad latens vilket påverkar men inte särskilt mkt. Sen ger den mer vid vissa hastighetsökningsintervall än andra. Steget från 2133mhz till 2400 ger nästan ingenting alls. Medan från 2400 till 2600mhz skalar den bra. Även med latens inräknat så följer inte detta något förväntat mönster.

Så 2133 är sweetspot vad som går idag respektive de fåtal som lyckas köra sina moduler i 2600mhz.
Mina moduler klarar 2400mhz med min APU men jag kör dom i 2133Mhz.

Om AMD ska lyckas så måste de göra ett bättre jobb med att få minnesmodultillverkare att släppa mer produkter som är matchade till med klar XMP eller vad nu AMDs motsvarande teknik heter. Eftersom så mycket hänger på minnena så borde de skapa mer minnesprodukter med partners.

Skickades från m.sweclockers.com

Att Kaveri skalar ojämnt med hastigheten på det där viset då den tjänar mer mellan 2400MHz och 2600MHz än mellan 2133MHz och 2400MHz verkar ju som att det är osynk i minnesfrekvenser och minneskontrollern. Går det att klocka IMC på de där rackarna? Känns som att en ordentlig klockning av IMC skulle kunna ge ytterligare en bra skjuts för alla minnesklockningar över 2000MHz.

Permalänk
Moderator
Festpilot 2020, Antiallo
Skrivet av Pudeln:

Teorin är så men Kaverin skalar lite upp och ner. Den skalar främst med minneshastigheten i de flesta test inte bara Gpu intensiva så länge det inte är jättestor skillnad latens vilket påverkar men inte särskilt mkt. Sen ger den mer vid vissa hastighetsökningsintervall än andra. Steget från 2133mhz till 2400 ger nästan ingenting alls. Medan från 2400 till 2600mhz skalar den bra. Även med latens inräknat så följer inte detta något förväntat mönster.

Så 2133 är sweetspot vad som går idag respektive de fåtal som lyckas köra sina moduler i 2600mhz.
Mina moduler klarar 2400mhz med min APU men jag kör dom i 2133Mhz.

Om AMD ska lyckas så måste de göra ett bättre jobb med att få minnesmodultillverkare att släppa mer produkter som är matchade till med klar XMP eller vad nu AMDs motsvarande teknik heter. Eftersom så mycket hänger på minnena så borde de skapa mer minnesprodukter med partners.

Skickades från m.sweclockers.com

Intressant, kan tänka mig att den stora anledningen till att just CPU:n inte har linjär skalning har mycket med latenserna internt mellan CPU, Cache samt IMC mot RAM. Kom i håg att just AMD oftast tjänar mer på sina billiga plattformar på bra minnen då t ex min 760k saknade L3 cache helt och behövde en avlastningsplats, ju snabbare desto bättre.

AMD stödjer XMP i nästan alla fall och deras motsvarande teknik heter AMP.

Skrivet av Aleshi:

Att Kaveri skalar ojämnt med hastigheten på det där viset då den tjänar mer mellan 2400MHz och 2600MHz än mellan 2133MHz och 2400MHz verkar ju som att det är osynk i minnesfrekvenser och minneskontrollern. Går det att klocka IMC på de där rackarna? Känns som att en ordentlig klockning av IMC skulle kunna ge ytterligare en bra skjuts för alla minnesklockningar över 2000MHz.

Såg ingen möjlighet till att klocka IMC på min Richland. Såg inte heller någon roligt Hypertransport link eller möjlighet att klocka NB. Tror det mesta av det är borta från den gamla god tiden.

Visa signatur

 | PM:a Moderatorerna | Kontaktformuläret | Geeks Discord |
Testpilot, Skribent, Moderator & Geeks Gaming Huvudadmin

Permalänk
Medlem
Skrivet av Zotamedu:

GDDR5 och DDR3 bygger i grunden på samma teknik men de är optimerade för olika saker. GDDR5 är designat för extremt hög bandbredd medan DDR3 prioriterar latensen. Ett grafikkort ta äta upp nästan hur mycket minnesbandbredd som helst och de är inte särskillt känsliga för latensen. En CPU behöver däremot inte så mycket bandbredd. Minnesfrekvensen har inte varit ett problem sen Core 2. Däremot är en CPU betydligt mer känslig för latensen. Så det är olika verktyg för olika tillämpningar. Sen går inte GDDR5 inte i 7 GHz utan det är en effektiv frekvens. De kör i praktiken med samma frekvenser som DDR3 fast de skickar mer data per cykel (grovt förenklat) vilket ger en högre effektiv frekvens.

Sant, men frågan är hur mycket du tror GDDR5 vs DDR3 skulle försämra det för 8 långsamma kärnor som ändå måste optimera sin kod?
Skulle tro, väldigt lite.
Låg fördröjning vid CPUns minne är pga den ofta jobbar med flera saker samtidigt. Den måste snabbt växla mellan dessa olika och då spelar "Latency" roll.
Eftersom de för att få ordentlig kraft ur dessa konsoler ändå måste optimera saker, så är det inte svårt att ordna pre-fetch teknik som hämtar vad som behövs innan CPUn behöver, vilket gör att det problemet försvinner.

Dock är där en nackdel till som ingen verkar ha tagit upp. ECC, eller felkorrigering. DDR3 ska ha felfritt minne, till 100% (normalt iaf), medans GDDR5 inte har samma krav eller skydd. Eftersom all data som beräknas KAN innehålla fel i minnet så görs ofta mjukvaru kontroller, något en vanlig PC tex inte gör med processorn.
Så de får lite högre processor last pga de måste beräkna denna felkontroll. Dock är detta väldigt lite påverkning.

XBone kommer aldrig, någonsin, att få samma effektiva beräkningskraft som PS4. End of.
MEN, frågan är, eftersom DirectX är enklare att programmera till, kommer speltillverkarna att optimera för PS4an, eller inte... För utan optimeringarna med en till CPU kärna, mer minnesbandbredd och mer GPU kärnor, så försvinner all fördel den har väldigt fort.

Sen skrattade jag gott igår, när jag fick denna länk. Så i mina ögon är det BARA de unika spelen som kommer göra något vettigt av dessa burkar.
https://www.youtube.com/watch?v=tYG-7T2LVDc

Kort sagt, 5 år gammalt highend grafikkort, kan inte ens jobba så långsamt som dessa next gen konsoler...

Permalänk
Medlem
Skrivet av Paddanx:

MEN, frågan är, eftersom DirectX är enklare att programmera till, kommer speltillverkarna att optimera för PS4an, eller inte...

Men, inte är det DirectX till Xbox One? Eller?

Sen kommer det kanske i början vara viss fördel till Xbox One isåfall, allt eftersom kommer man programmera mer och mer direkt och optimerat och då kommer PS4 antagligen dra ifrån mer och mer.

Det där eSRAMet är en liten osäkerhet, det är såpass litet att jag har svårt att se att det ska göra så stor skillnad, men jag vet ingenting.

Permalänk
Datavetare
Skrivet av Kilroy:

Det där eSRAMet är en liten osäkerhet, det är såpass litet att jag har svårt att se att det ska göra så stor skillnad, men jag vet ingenting.

eSRAM gör en stor skillnad i praktiken. Hade man bara använt som en textur-cache så hade det inte spelat någon större roll då det bara är 32MB, men när det används som Z-buffer, stencil-buffer och frame-buffer så gör det rejält med skillnad. Z-buffer är något man väldigt frekvent både skriver och läser ur, stencil-buffer läser man väldigt ofta och frame-buffer skriver man väldigt ofta och mycket till.

Problemet är att 32MB är för lite för lite för att få in alla dessa buffers i 1920x1080. Den lite udda upplösning som flera spel använder (kommer inte ihåg exakt, med det är runt 800 pixels på höjden) är den upplösning man kan köra och ändå få in alla nödvändiga buffers på 32MB. Så med 64-128MB eSRAM hade man nog kunnat fixa 1920x1080 lika bra som PS4.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

eSRAM gör en stor skillnad i praktiken. Hade man bara använt som en textur-cache så hade det inte spelat någon större roll då det bara är 32MB, men när det används som Z-buffer, stencil-buffer och frame-buffer så gör det rejält med skillnad. Z-buffer är något man väldigt frekvent både skriver och läser ur, stencil-buffer läser man väldigt ofta och frame-buffer skriver man väldigt ofta och mycket till.

Problemet är att 32MB är för lite för lite för att få in alla dessa buffers i 1920x1080. Den lite udda upplösning som flera spel använder (kommer inte ihåg exakt, med det är runt 800 pixels på höjden) är den upplösning man kan köra och ändå få in alla nödvändiga buffers på 32MB. Så med 64-128MB eSRAM hade man nog kunnat fixa 1920x1080 lika bra som PS4.

ah, ok.

Nog för att det är svårt att säga, men hur mycket aktiv programmering kan man göra för att utnyttja eSRAM mer eller mindre?
Är det någonting man kan få ut mer av i sig eller är det en ganska basic funktion att bara använda det så som du beskriver?