Geforce GTX 980 Ti tittar fram på bild

Permalänk
Hjälpsam
Skrivet av Yoshman:

Har inte debatten i slutändan varit lite "captain obvious", använder man mer än 3.5GB på 970 faller prestanda som en sten vilket är exakt vad man kan förvänta sig. Använder man mer än 4.0GB på 980 faller prestanda också som en sten.

Nvidia ska ändå ha kritik då mängden L2-cache samt antal ROPs var initial fel på 970. Däremot är det 4GB RAM och är fullt möjligt att få ut full bandbredd om man samtidigt använder den "snabba" poolen (3.5GB) och den "långsamma" poolen (0.5G) då det finns full tillräckligt med kapacitet i x-bar för det och alla 8 32-bitars kanaler är mot RAM är intakt. Men hade nog varit bättre om man kalla det 3.5GB RAM + 0.5GB cache.

Enda skillnaden är att om man tittar på vinkeln man faller av klippan är det en något flackare bana på 970 tack vare de 0.5GB som i praktiken har >= x4 bandbredd mot att läsa över PCIe. I praktiken gör denna flackare bana inte jättemycket, utan det blir i praktiken oanvändbart så fort man får slut på den minnesbank med väldigt hög bandbredd.

Angående om Maxwell-designen är en feature eller ej: är väl rätt uppenbart att det ger extra flexibilitet att beräkningsenheter och minnesbussen är separerade via en x-bar. När man väljer att skala ner en "full" krets kan man oberoende välja hur många SMM som ska kapas från hur många 32-bitars sektioner av RAM-bussen som tas bort från den "snabba" poolen.

På minnessidan så är granulariteten på Maxwell 32-bitar medan den är 64-bitar på Kepler och existerande GCN-designer. Så finessen är just att man kan skära med 32-bitars precision i stället för 64-bitar.

Det är nog så; man kan slå i taket vid 3.5 GiB eller lite senare vid 4.0, i praktiken är inte skillnaden speciellt stor.
Och dessa 0.5 GiB gör kanske "taket" mjukare, men det är nog dags att skruva ned inställningarna, i vilket fall som helst.

Problemet för mig, var heller inte konstruktionen i sig, utan att den inte redovisades öppet från början.

Så kort sagt; jag håller med dig i stort sett.
Nu måste vi bara passa oss, så att inte diskussionen startar på nytt!

Visa signatur

AMD Ryzen 7 5700X | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/51gntq | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 9600 XT 16GB | 64 GB Micron ECC | https://valid.x86.fr/gwcxfs
HTPC | https://valid.x86.fr/gqtxws |

Permalänk

Kommer troligtvis köpa även om det blir 5.5 GB i praktiken. Antar att man skulle kunna vara tveksam om man ska köra 4k men för mig på 1440p (120hz) tvivlar jag att det kommer vara ett problem.

Om det är samma lösning som på 970 kommer dom nog vara rätt öppna med det då folk garanterat kommer testa detta så fort de får korten så det ändå kommer ut.

Visa signatur

Corsair Obsidian 750D | be quiet! DARK POWER PRO 10 1000w | ASUS Maximus VI Hero | Intel i7 4770k @ 4.3ghz | 2x8GB Corsair Vengeance 2133Mhz | MSI GTX 1080 Gaming X |Samsung 840 EVO 500GB

Permalänk
Skrivet av Stoff3th3m4n:

Nja, det var ju ett medvetet designval man gjorde här som säkert hade kunnat se ut på nåt annat vis om man velat. Tycker inte liknelsen med kepler är helt relevant och tror att en lösning med 3GB minne hade varit bättre då man slipper stuttering-problemet som många upplevt.

Går att jämföra med äldre generationer varje gång man hittar en mindre bra lösning genom att säga att en liknande lösning hade blivit ännu sämre på förra generationen eller liknande. Andra tillverkare inklusive Nvidia själva har ju lyckas göra kort utan en liten andel långsamt minne som för med sig problem förr, men här kan man använda fler chip vilket i sig med denna lösningen bara är bra för företaget men inte direkt för kunderna.

Varför skulle stutter vid 3001MB's minnesanvändning vara bättre än stutter vid 3501MB's minnesanvändning?

Visa signatur

Dator:
*Censurerad av jantelagen*

Permalänk
Hjälpsam

Köper inte detta att kortet skulle haft 3 GiB minne utan deras design, 3.5 GiB borde det vara, med eller utan svansen på 0.5 GiB långsamt minne.

Visa signatur

AMD Ryzen 7 5700X | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/51gntq | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 9600 XT 16GB | 64 GB Micron ECC | https://valid.x86.fr/gwcxfs
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Medlem
Skrivet av n_sandstrom:

Varför skulle stutter vid 3001MB's minnesanvändning vara bättre än stutter vid 3501MB's minnesanvändning?

För att prestandaförlusten när minnet slår i taket är mindre än när det går över till att använda en otroligt långsam del av detsamma. Finns att läsa tester om du googlar lite.

Visa signatur

AMD RYZEN 9 5900X - ASUS ROG X470-F STRIX - 32GB DDR4 @ 3200MHz - ASUS RTX 3070 Ti

Permalänk
Avstängd
Skrivet av Stoff3th3m4n:

För att prestandaförlusten när minnet slår i taket är mindre än när det går över till att använda en otroligt långsam del av detsamma. Finns att läsa tester om du googlar lite.

Köper inte det riktigt, har svårt att gå över 3.5 även då jag försöker, kortet tycks hålla sig precis strax nedanför 3,5 hur hårt man än pressar det i de flesta titlar. Inget "stutter"heller, skulle det legat på 3GB VRAM så skulle det definitivt varit ett nedköp jämfört med hur minneshanteringen fungerar nu.

Permalänk
Medlem
Skrivet av Yoshman:

Har inte debatten i slutändan varit lite "captain obvious", använder man mer än 3.5GB på 970 faller prestanda som en sten vilket är exakt vad man kan förvänta sig. Använder man mer än 4.0GB på 980 faller prestanda också som en sten.

Nvidia ska ändå ha kritik då mängden L2-cache samt antal ROPs var initial fel på 970. Däremot är det 4GB RAM och är fullt möjligt att få ut full bandbredd om man samtidigt använder den "snabba" poolen (3.5GB) och den "långsamma" poolen (0.5G) då det finns full tillräckligt med kapacitet i x-bar för det och alla 8 32-bitars kanaler är mot RAM är intakt. Men hade nog varit bättre om man kalla det 3.5GB RAM + 0.5GB cache.

Enda skillnaden är att om man tittar på vinkeln man faller av klippan är det en något flackare bana på 970 tack vare de 0.5GB som i praktiken har >= x4 bandbredd mot att läsa över PCIe. I praktiken gör denna flackare bana inte jättemycket, utan det blir i praktiken oanvändbart så fort man får slut på den minnesbank med väldigt hög bandbredd.

Angående om Maxwell-designen är en feature eller ej: är väl rätt uppenbart att det ger extra flexibilitet att beräkningsenheter och minnesbussen är separerade via en x-bar. När man väljer att skala ner en "full" krets kan man oberoende välja hur många SMM som ska kapas från hur många 32-bitars sektioner av RAM-bussen som tas bort från den "snabba" poolen.

På minnessidan så är granulariteten på Maxwell 32-bitar medan den är 64-bitar på Kepler och existerande GCN-designer. Så finessen är just att man kan skära med 32-bitars precision i stället för 64-bitar.

Har själv ingen större insikt i hur det fungerar så jag frågar dig. Som jag har förstått det så måste nvidia i drivrutinerna "begränsa" att de sista 0,5GB allokeras. Det jag är mest orolig över är att det kommer slarvas med detta om ett tag, med följd att kortet bitvis kommer använda det långsamma minnet trots att det inte hade behövts. Förstår du hur jag menar?

Skickades från m.sweclockers.com

Visa signatur

Define R3 | Asrock P67 PRO3 Rev B3 | I5 2500K@4,5GHz | Xigmatek Gaia | Corsair Vengeance LP 8GB 1866MHz | EVGA GTX 970 SSC | XFX core edt. 550W| Intel 320 120GB, Crucial MX100 256GB, WD caviar black 750GB

Permalänk
Skrivet av Stoff3th3m4n:

För att prestandaförlusten när minnet slår i taket är mindre än när det går över till att använda en otroligt långsam del av detsamma. Finns att läsa tester om du googlar lite.

Nej, när ett kort "slår i taget" på minne så tvingas det använda vanligt RAM. Och det, det går inte snabbt.

Alla kort får katastrofal prestanda när minnesgränsen överskrids. För 970 är det vid 3,5GB, för 980 vid 4,0. Fram tills dess är det inga konstigheter.

Visa signatur

Dator:
*Censurerad av jantelagen*

Permalänk
Skrivet av Söderbäck:

Det där med att man ska kunna lägga ihop minnet är en långt överambitiös förhoppning.
Grafikrendering delas inte direkt in i förgrunds/bakgrundsrendering utan grafikkorten kommer väl snarare använda någon form av split frame rendering. Bilden delas upp i mindre segment som renderas en del i taget. Ungefär som när man ser en cinebech-körning.
Man varje grafikkort behöver fortfarande behöva ha samma texturer och polygonstrukturer i sitt eget arbetsminne för att kunna jobba med renderingen om det ska gå fort.
Det är nämligen så enkelt att bandbredden och överföringshastigheten är på tok för klen mellan grafikkorten så skulle man behöva hämta texturer från ena grafikkortets minne till det andra grafikkortets beräkningsenhet så skulle man få ett jätteslött system. Det problemet kan inte en directXversion lösa.

Vinsten ligger i att båda grafikkorten inte behöver ha precis identiskt speglat minne. Men i praktiken kommer i stora drag samma texturer ligga på båda grafikkortsminnena samtidigt ändå.
Man kommer kanske få ut 10-30% mer minne. Kanske mindre, kanske till och med ännu mer. Men dubbelt minne har jag inte set några rimliga källor på än så länge.

Som han förklarade det skulle utvecklarna kunna bestäma med kod vad varje gpu ska rendra. D.v.s de behöver inte läsa in samma textures. De kan säga att t.ex. GPU1 ska rendra texture models för XY och GPU2 rendrar texture models för Z. Det skulle göra det möjligt att använda mer vram än vad man kan i dagsläget. Han sa detta redan kan göras med Mantle som AMD har utvecklat. Är inte så insatt i detta men gissar ED bör ha ganska bra uppfattning om detta då han jobbar på Sapphire. Sen om han är totalt ute och cycklar eller sitter på fel info är en anna femma, dock han säger det redan går göra via Mantle, bara att utvecklarna måste koda för det.

Permalänk
Hedersmedlem
Skrivet av TheCouchNerd:

Som han förklarade det skulle utvecklarna kunna bestäma med kod vad varje gpu ska rendra.

Yes. Eller det ligger snarare mer på spelutvecklarnas bord hur lastfördelningen ska se ut. Med dagens flergrafikkortslösningar ligger lastförelningsansvaret i mjukvaran från grafikkortstillverkaren. Kommer bli annorluda med SFR (split frame rendering).

Skrivet av TheCouchNerd:

D.v.s de behöver inte läsa in samma textures.

Mja. Det är väl här jag inte delar din entusiasm lika intensivt. Spelutvecklarna kommer inte bestämma något på så specifik nivå utan bilden som ska renderas kommer delas upp i mindre delar och så får varje tillgänglig GPU börja rendera varje liten del separat. Men det säger inget om att samma texturer inte kommer finnas på flera grafikminnen samtidigt. Det kommer oundvikligen att inträffa konstant.

Skrivet av TheCouchNerd:

De kan säga att t.ex. GPU1 ska rendra texture models för XY och GPU2 rendrar texture models för Z.

Det här är lite oklart men rendering sker inte per axel i tre dimensioner utan per yta utifrån en kameravinkel.Kanske missförstånd från min sida ;).
Oavsett så rekommenderar jag återigen att titta på hur cinebench ser ut när det kör en benchmark för det ger en rätt bra förståelse av hur SPF kommer att jobba där flera smårutor av bilden kommer byggas samtidigt av olika beräkningsenheter. Objekt, för/bagrunder eller HUDs ritas alltså inte separat utan allt tas om hand samtidigt en liten ruta i taget.

Skrivet av TheCouchNerd:

Det skulle göra det möjligt att använda mer vram än vad man kan i dagsläget. Han sa detta redan kan göras med Mantle som AMD har utvecklat.

Yes, det är en smaskig fördel med SFR. Ingen betvivlar att det det kommer bli mer RAM tillgängligt med den nya renderingstekniken. Och det finns fler fördelar. Kombination mellan olika kraftfulla kretsar är lättare och även blandning av AMDkort och nvidiakort är teoretiskt möjligt. Och yes, det har börjat användas redan. Civilization V - beyond earth har tydligen visst stöd för SFR redan i dagsläget. Men förstå mig rätt här. Det är inte samma sak som att man kan använda den kombinerade minnesmängden fullt ut. Hur stor vinsten är vet jag inte, men jag tror en dubblering med tekniken är önsketänkande som sagt.

Skrivet av TheCouchNerd:

Är inte så insatt i detta men gissar ED bör ha ganska bra uppfattning om detta då han jobbar på Sapphire. Sen om han är totalt ute och cycklar eller sitter på fel info är en anna femma, dock han säger det redan går göra via Mantle, bara att utvecklarna måste koda för det.

Ja, ED kan säkerligen mycket om det här. Tror inte den personen är ute och cyklar. Troligare är att antingen du eller jag inte tolkat uttalanden från kunniga inom områden helt rätt :).

Visa signatur

💻 → Lenovo Yoga slim 7 pro 14" Oled
🎮 → Steamdeck

Permalänk
Skrivet av Söderbäck:

Ja, ED kan säkerligen mycket om det här. Tror inte den personen är ute och cyklar. Troligare är att antingen du eller jag inte tolkat uttalanden från kunniga inom områden helt rätt :).

Mm, svårt att veta föränn DX12 + Vulcan finns ute och har spel kodade med dessa API i åtanke. Sen kanske det ska gå i teorin att göra som ED förklarade, men det betyder ju inte att utvecklarna lär göra det. Mena de ska ju kunna i dagsläget koda för multitrådat och vi ser ju hur bra de är på det. Hoppas utvecklarna verkligen använder alla fördelar med DX12 och Vulcan nu då det kommer istället för att lata sig.

Permalänk
Hjälpsam

Det finns faktiskt ett spel ute där man kan köra SFR med Mantle.
civilization-beyond-earth-crossfire-with-mantle
Viktigaste fördelen är att minimum fps stiger ordentligt.
Skall bli intressant vad detta kan göra, för SLI och CF när DX12 kommer.

Visa signatur

AMD Ryzen 7 5700X | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/51gntq | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 9600 XT 16GB | 64 GB Micron ECC | https://valid.x86.fr/gwcxfs
HTPC | https://valid.x86.fr/gqtxws |

Permalänk

@philipborg: Absolut inte, har ett 280x själv till mina 3 skärmar.

Visa signatur

Stuff