Tråden som skvallrar om Polaris.

Permalänk
Medlem
Skrivet av anon999:

Verkligen? I de review's jag hittar är skillnaden praktiskt taget obefintlig. Vilka spel presterar märkbart sämre i 1440p med 4GB?

https://www.youtube.com/watch?v=DGdhW_GF3dg

EDIT: Det enda undantaget i det här testet var i Mirror's Edge Catalyst när man körde med Hyper quality i 1440p men i det fallet fungerar det inte särskilt bra med 8GB kortet heller, GPU'n presterar helt enkelt inte bra nog.

Skrivet av anon75480:

Undrar jag med, kollar igenom sweclockers test suite och endast i två titlar gör mer än 4GB skilland (GTA och tomb raider), och då kollar jag på 2160p resultaten...

Skickades från m.sweclockers.com

Skrivet av Adrenochrome:

Från vad jag har sett så är medel-fps ungefär densamma, men man kan få frame drops/stutter i vissa spel med 4GB, framförallt i högre upplösningar än 1080p.

https://www.youtube.com/watch?v=HYb7FYfIc2g

Som Adrenochrome säger så blir det ofta fryslagg eller stutter. Några spel som käkade minne när jag körde mina 3 x7970 var GTA, XCOM och Rise of the Tomb Raider, finns säkerligen flera. Det finns också en hel del tester där Fury X inte pallar de högre inställningarna, kanske inte just på 1080p men det ligger redan på gränsen.

Tänk också på att kolla vilka inställningar de kör med i testerna, oftast har de valt någon fördefinierad preset. I Rise of the Tomb Raider kan man vrida upp mer än högsta preset på vissa inställningar, minnesanvändningen (2 x 1080 8GB) hamnade på 7.5 GB på en av bencharna, medans de flesta la sig runt 6.7 GB. Med 3 x 7970 gick det knappt att köra bencharna utan att det fryslaggade. På XCOM fick jag vrida ner textur och skuggor ett par snäpp för att hamna på någon som korten klarade av.

Tänk också på att VR kommer att kranka upp minnesanvändningen en hel del, det är inte längre godtagbart med lågupplösta texturer som sträcker sig över hela synfältet.

Permalänk
Inaktiv
Skrivet av Dalton Sleeper:

Som Adrenochrome säger så blir det ofta fryslagg eller stutter. Några spel som käkade minne när jag körde mina 3 x7970 var GTA, XCOM och Rise of the Tomb Raider, finns säkerligen flera. Det finns också en hel del tester där Fury X inte pallar de högre inställningarna, kanske inte just på 1080p men det ligger redan på gränsen.

Tänk också på att kolla vilka inställningar de kör med i testerna, oftast har de valt någon fördefinierad preset. I Rise of the Tomb Raider kan man vrida upp mer än högsta preset på vissa inställningar, minnesanvändningen (2 x 1080 8GB) hamnade på 7.5 GB på en av bencharna, medans de flesta la sig runt 6.7 GB. Med 3 x 7970 gick det knappt att köra bencharna utan att det fryslaggade. På XCOM fick jag vrida ner textur och skuggor ett par snäpp för att hamna på någon som korten klarade av.

Tänk också på att VR kommer att kranka upp minnesanvändningen en hel del, det är inte längre godtagbart med lågupplösta texturer som sträcker sig över hela synfältet.

Gamer nexus Videon som Adrenochrome postade är från 5'e juli och nästa 1 månad äldre än videon från testet jag länkade till och körde huvuddelen av testerna på gamla drivrutiner vilket han skriver "The latest AMD drivers (16.6.2 RX 480 press) were used for testing. The 16.7.1 drivers were used for GTA V, which resolve some stuttering issues seen in the review."

Om du jämför med testet jag länkade till gissar jag att han genomgående använde de nya drivarna, därav skillnaden.
Drivrutinerna betydelse påpekas även i det här testet från 24'e juli som och så kommer till slutsatsen att det i dagsläget inte är nån större skillnad men tror att det längre fram kan ha betydelse, om och i vilken omfattning återstår att se.

Permalänk
Medlem
Skrivet av anon999:

Gamer nexus Videon som Adrenochrome postade är från 5'e juli och nästa 1 månad äldre än videon från testet jag länkade till och körde huvuddelen av testerna på gamla drivrutiner vilket han skriver "The latest AMD drivers (16.6.2 RX 480 press) were used for testing. The 16.7.1 drivers were used for GTA V, which resolve some stuttering issues seen in the review."

Om du jämför med testet jag länkade till gissar jag att han genomgående använde de nya drivarna, därav skillnaden.
Drivrutinerna betydelse påpekas även i det här testet från 24'e juli som och så kommer till slutsatsen att det i dagsläget inte är nån större skillnad men tror att det längre fram kan ha betydelse, om och i vilken omfattning återstår att se.
https://www.youtube.com/watch?v=JjTUtUF6gxg

Det kanske är möjligt att optimera minnesanvändningen till en viss grad, kasta ut sådant som för tillfället inte används etc, dock hjälper det inte när minnet som finns på kortet inte räcker till, oavsett. Hur mycket ni än envisas med att bevisa att 4GB räcker i dagsläget så finns det spel som passerar det, även på en upplösning som var standard för 10 år sedan. Detta har harvats många gånger tidigare, exempelvis när 580 och 680 släpptes, de korten är utdöda sedan länge medans AMDs motsvarigheter harvar på.

Skickades från m.sweclockers.com

Permalänk
Hjälpsam

Dåliga nyheter.
https://www.reddit.com/r/Amd/comments/4uytr5/eth_miners_are_t...
Vi behöver korten till spelare inte miners, miners sliter också hårt på korten vilket ger många garantiärenden.
Och hur många här skulle vilja köpa ett begagnat kort som använts till mining 24/7?

Visa signatur

AMD Ryzen 7 5700X | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/51gntq | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/gwcxfs
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Skrivet av Ratatosk:

Dåliga nyheter.
https://www.reddit.com/r/Amd/comments/4uytr5/eth_miners_are_t...
Vi behöver korten till spelare inte miners, miners sliter också hårt på korten vilket ger många garantiärenden.
Och hur många här skulle vilja köpa ett begagnat kort som använts till mining 24/7?

Är det alltså fortfarande lönsamt med mining?

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Entusiast
Skrivet av Ratatosk:

Vi behöver korten till spelare inte miners, miners sliter också hårt på korten vilket ger många garantiärenden.

Det här är ett lite konstigt sätt att se på saken tycker jag.
Att spela är väl lika "själviskt" som att minea med ett kort?

Visa signatur

Den digitala högborgen: [Fractal Design Meshify C] ≈ [Corsair RM850x] ≈ [GeForce RTX 3080] ≈ [AMD Ryzen 7 7800X3D ≈ [Noctua NH-U14S] ≈ [G.Skill Flare X5 32GB@6GHz/CL30] ≈ [MSI MAG B650 TOMAHAWK] ≈ [Kingston Fury Renegade 2 TB] ≈

Permalänk
Skrivet av anon999:

Gamer nexus Videon som Adrenochrome postade är från 5'e juli och nästa 1 månad äldre än videon från testet jag länkade till och körde huvuddelen av testerna på gamla drivrutiner vilket han skriver "The latest AMD drivers (16.6.2 RX 480 press) were used for testing. The 16.7.1 drivers were used for GTA V, which resolve some stuttering issues seen in the review."

Om du jämför med testet jag länkade till gissar jag att han genomgående använde de nya drivarna, därav skillnaden.
Drivrutinerna betydelse påpekas även i det här testet från 24'e juli som och så kommer till slutsatsen att det i dagsläget inte är nån större skillnad men tror att det längre fram kan ha betydelse, om och i vilken omfattning återstår att se.
https://www.youtube.com/watch?v=JjTUtUF6gxg

Fast i videon som du länkar så talar han ju bara om average fps, inget sagt om dippar, vilket ju var hela min poäng. Bra poäng med drivers dock.

Skickades från m.sweclockers.com

Permalänk
Inaktiv
Skrivet av Dalton Sleeper:

Det kanske är möjligt att optimera minnesanvändningen till en viss grad, kasta ut sådant som för tillfället inte används etc, dock hjälper det inte när minnet som finns på kortet inte räcker till, oavsett. Hur mycket ni än envisas med att bevisa att 4GB räcker i dagsläget så finns det spel som passerar det, även på en upplösning som var standard för 10 år sedan. Detta har harvats många gånger tidigare, exempelvis när 580 och 680 släpptes, de korten är utdöda sedan länge medans AMDs motsvarigheter harvar på.

Skickades från m.sweclockers.com

Fast du har ju inte visat något spel där amd:s 4GB kort får mycket lägre lägsta fps än 8GB korten i 1080p (vilket brukar vara där enklaste sättet att leta efter minnesflaskhalsar). Att du sen skrivet om stutter om 3x7970 i ospecificerad upplösning som dels bara har 3GB och som dessutom är ökända för microstutter i crossfire ser jag inte så relevant i sammanhanget. Sen är dessutom uppmätt vram användning också helt poänglöst i sammanhanget då mängden inte nödvändigtvis är det som krävs.

Nu hade jag iof nog också köpt 8GB version om det inte är någon större prisskillnad men mer för en betryggande känsla och för att det eventuellt är mer framtidssäkert än att det inte duger i 1080p. Men alla benchmarks jag har sett iaf är att de flesta kort klarar sig bra på 4GB även upp i UHD med AA, i de fall där de inte räcker snackar vi om extremt låg fps överlag så är inga inställningar nån kör med ändå. Men nu handlade detta iof om du skrev att 4GB redan flaskar en hel del spel 1080p, du får gärna länka benchmarksen som visar att 4GB kort begränsas av mängden vram i 1080p. Värt att notera är också att 4GB-versionen har långsammare minne vilket kan spela in hur korten presterar vilket också kan vara en anledning för att gå på 8GB korten.

Tomb Raider verkar som sagt ett av de minnestyngsta spel idag (slaktar 4GB kort när upplösningen skruvas upp) men där ser till å med 3GB kort ut att klara sig i 1080p http://cdn.sweclockers.com/artikel/diagram/11636?key=4cdf3ad2...

Permalänk
Medlem
Skrivet av Sisyfos:

Det här är ett lite konstigt sätt att se på saken tycker jag.
Att spela är väl lika "själviskt" som att minea med ett kort?

På kort sikt kvittar det då AMD gör samma vinst för varje sålt kort problemet är på längre sikt så är en miner inte lika bra som en gamer för AMD.

Varje sålt kort till en gamer innebär större marknadsandel för AMD och då kanske speltillverkarna lägger ner mer tid att optimera koden för AMD och ifall man som RX 480 ägare är nöjd med kortet så överväger man att köpa AMD nya grafikkort då man har bra erfarenhet av AMD.

En miner kommer alltid köpa det kort som ger bäst prestanda/watt för mining och skiter i märkes lojalitet och ifall bristen på grafikkort får gamer att köpa GTX 1060 istället så kanske de väljer Nvidia istället för AMD nästa gång de köper ett nytt grafikkort.

Visa signatur

i5 10600K, Z490 Tomahawk, Corsair RMX750, GTX 1060 6GB

Permalänk
Hjälpsam
Skrivet av Broken-arrow:

Är det alltså fortfarande lönsamt med mining?

Ja om än ganska knappt, Ethermining.

Skrivet av Sisyfos:

Det här är ett lite konstigt sätt att se på saken tycker jag.
Att spela är väl lika "själviskt" som att minea med ett kort?

Möjligt att jag är självisk, jag är spelare inte miner.
Jag vill framför allt ha en större andel spelare, som använder AMD i stället för Nvidia, 50% i vardera laget vore perfekt.

Visa signatur

AMD Ryzen 7 5700X | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/51gntq | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/gwcxfs
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Inaktiv
Skrivet av Ratatosk:

Dåliga nyheter.
https://www.reddit.com/r/Amd/comments/4uytr5/eth_miners_are_t...
Vi behöver korten till spelare inte miners, miners sliter också hårt på korten vilket ger många garantiärenden.
Och hur många här skulle vilja köpa ett begagnat kort som använts till mining 24/7?

Mining har jag aldrig kört men milkyway@home, folding, POEM och appar för cancerforskning under World community grid har jag kört 16 timmar\dygn i 8 års tid och har aldrig behövt byta ett enda kort därför att det gått sönder. Annars håller jag med om att det kanske är dåliga nyheter för gamers men får AMD sälja för lite kort är det troligen ännu sämre nyheter, gör man inte tillräckligt bra vinst har man inte råd att ta fram nya avancerade produkter.

Permalänk
Skrivet av Sisyfos:

Det här är ett lite konstigt sätt att se på saken tycker jag.
Att spela är väl lika "själviskt" som att minea med ett kort?

Vanligaste argumentet jag hört är faktiskt ur ett ekologiskt perspektiv. Man använder otroligt mycket el för egen vinning. Har själv ingen bestämd åsikt i frågan.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av anon75480:

Fast du har ju inte visat något spel där amd:s 4GB kort får mycket lägre lägsta fps än 8GB korten i 1080p (vilket brukar vara där enklaste sättet att leta efter minnesflaskhalsar). Att du sen skrivet om stutter om 3x7970 i ospecificerad upplösning som dels bara har 3GB och som dessutom är ökända för microstutter i crossfire ser jag inte så relevant i sammanhanget. Sen är dessutom uppmätt vram användning också helt poänglöst i sammanhanget då mängden inte nödvändigtvis är det som krävs.

Nu hade jag iof nog också köpt 8GB version om det inte är någon större prisskillnad men mer för en betryggande känsla och för att det eventuellt är mer framtidssäkert än att det inte duger i 1080p. Men alla benchmarks jag har sett iaf är att de flesta kort klarar sig bra på 4GB även upp i UHD med AA, i de fall där de inte räcker snackar vi om extremt låg fps överlag så är inga inställningar nån kör med ändå. Men nu handlade detta iof om du skrev att 4GB redan flaskar en hel del spel 1080p, du får gärna länka benchmarksen som visar att 4GB kort begränsas av mängden vram i 1080p. Värt att notera är också att 4GB-versionen har långsammare minne vilket kan spela in hur korten presterar.

Som du nämner har jag inte visat något som tyder på detta, tog mina 7970 3GB kort som exempel efter egna erfarenheter och antar sedan att 4GB åker på samma smäll. Anledningarna till antagandet är sänka inställningarna för att hamna under 3GB samt att jag läst tester att Fury X har problem på högre inställningar i en del spel. Tokfrysningarna med 7970 var också i 1080p om jag var otydlig. Minnesanvändningen har jag mätt med Afterburner, jag har utgått att mätningen är mer eller mindre korrekta i de nämna spelen då stutter/frysningarna uppstod i samband när siffrorna översteg kortens totala mängd. Jag är också medveten om att det annars kan ligga kvar eller buffras om det finns outnyttjat minne.

Att du nämner att 7970 är kännt för sitt stutter så är det inte denna typ av stutter jag talar om, en mindre variation av frame times och stuttret jag upplevde när minnet tog slut är totalt olika. 7970 rullar på riktigt bra i crossfire om man vet vad man pillar med, enda anledningen att jag bytte var just minnesmängden samt att vr-spelen ännu inte utnyttjar länkade gpuer.

Permalänk
Medlem
Skrivet av Anders9110:

På kort sikt kvittar det då AMD gör samma vinst för varje sålt kort problemet är på längre sikt så är en miner inte lika bra som en gamer för AMD.

Varje sålt kort till en gamer innebär större marknadsandel för AMD och då kanske speltillverkarna lägger ner mer tid att optimera koden för AMD och ifall man som RX 480 ägare är nöjd med kortet så överväger man att köpa AMD nya grafikkort då man har bra erfarenhet av AMD.

En miner kommer alltid köpa det kort som ger bäst prestanda/watt för mining och skiter i märkes lojalitet och ifall bristen på grafikkort får gamer att köpa GTX 1060 istället så kanske de väljer Nvidia istället för AMD nästa gång de köper ett nytt grafikkort.

Fler konsumenter borde köra på en miners tankesätt, mest prestanda för pengarna och lägga märkeslojaliteten åt sidan.

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem
Skrivet av ClintBeastwood:

Fler konsumenter borde köra på en miners tankesätt, mest prestanda för pengarna och lägga märkeslojaliteten åt sidan.

Håller med men de flesta tänker inte så lägg till att ifall AMD och Nvidia grafikkort presterar ganska lika eller skillnaderna är små så kommer de flesta stanna kvar hos samma märke ifall man har haft en bra upplevelse med grafikkortet.

Visa signatur

i5 10600K, Z490 Tomahawk, Corsair RMX750, GTX 1060 6GB

Permalänk
Medlem
Skrivet av anon75480:

Tomb Raider verkar som sagt ett av de minnestyngsta spel idag (slaktar 4GB kort när upplösningen skruvas upp) men där ser till å med 3GB kort ut att klara sig i 1080p http://cdn.sweclockers.com/artikel/diagram/11636?key=4cdf3ad2...

Jag har ingen aning om vilken version av spelet dom testade men på min kommer det upp att det rekommenderas 4GB när man väljer Very High, det är också möjligt att höja inställningarna ytterligare efter detta om man så vill (se nedan). Jag testade strax efter DX12 patchen kom och när man kan köra VXAO för DX11. Det fanns inget flyt i spelet alls, sedan om detta syns i de mätta siffrorna har jag ingen aning om.

Shadow Quality (High -> Very High)
Sun Soft Shadows (High -> Very High)
Ambient Occlusion (HBAO+ -> VXAO)
Pure Hair (On -> Very High)
Specular Reflection Quality (Normal -> High -> Very High)

Permalänk
Inaktiv
Skrivet av Ratatosk:

Dåliga nyheter.
https://www.reddit.com/r/Amd/comments/4uytr5/eth_miners_are_t...
Vi behöver korten till spelare inte miners, miners sliter också hårt på korten vilket ger många garantiärenden.
Och hur många här skulle vilja köpa ett begagnat kort som använts till mining 24/7?

Förvisso kör dessa kort 24/7 men samtidigt brukar dessa kort, iallafall tidigare med bitcoin-mining, köras med GPU nerklockad för att spara energi då minnesklocken var viktigare. Så frågan är hur mycket slit det egentligen blir på korten. Troligen värre sett till slitningsgrad hos de som kör Folding@Home där både GPU och dess minne överklockas.

Samtidigt är det trist att kort som ska ut till konsumenter istället köps upp av miningfolket, priserna blir sällan bra när marknaden dammsugs på kort. När R9 290X släpptes så var kortpriserna uppe i över 900 dollar i USA, och då var MSRP runt 500 dollar på den.

I slutändan bra för AMD om kort säljs men trist för oss konsumenter som får svårt att få tag i kort och drabbas av handlare som ökar priserna och utnyttjar läget.

Permalänk
Inaktiv
Skrivet av Adrenochrome:

Fast i videon som du länkar så talar han ju bara om average fps, inget sagt om dippar, vilket ju var hela min poäng. Bra poäng med drivers dock.

Skickades från m.sweclockers.com

Jo men i Nexus Gamer videon det var ju ett resultat av att han hade lägre antal FPS, både i medel och low, på 4GB kortet i en del spel som gjorde att low-värdet dök under 30 FPS vilket gör att man lätt upptäcker skillnaden. Det problemet har man inte med de nya drivarna därför att med dessa är skillnaden mellan 4GB och 8GB i FPS map medel och low strängt taget obefintliga, när min-värdena droppar under 30 FPS gör de det för båda korten nästan genomgående.

Permalänk
Inaktiv
Skrivet av Dalton Sleeper:

Det kanske är möjligt att optimera minnesanvändningen till en viss grad, kasta ut sådant som för tillfället inte används etc, dock hjälper det inte när minnet som finns på kortet inte räcker till, oavsett. Hur mycket ni än envisas med att bevisa att 4GB räcker i dagsläget så finns det spel som passerar det, även på en upplösning som var standard för 10 år sedan.Skickades från m.sweclockers.com

Verklige? Vilka spel klara dagens 4GB kort inte av i upplösningen 1024x768 eller 1280x1024?
Dessutom vet vi inte hur det kommer att funka om du ex kör med 2 kort under DX12 vilket är framtiden, under DX12 kan minnet från båda korten användas som en gemensam minnespol vilket gör att du i det fallet har 8GB till förfogande när du kör med 2 st. 4GB kort.

Permalänk
Hjälpsam

Vet inte om 4GB alltid räcker i dag, vad jag vet är att om man köper ett kort som har 8GB, slipper man fundera på om det kommer att räcka till i dag, om ett, två eller tre år.

Visa signatur

AMD Ryzen 7 5700X | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/51gntq | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/gwcxfs
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Inaktiv
Skrivet av Ratatosk:

Vet inte om 4GB alltid räcker i dag, vad jag vet är att om man köper ett kort som har 8GB, slipper man fundera på om det kommer att räcka till i dag, om ett, två eller tre år.

Men du är säker på att GPU'n räcker oavsett minnesmängd?

Permalänk
Medlem
Skrivet av anon999:

Verklige? Vilka spel klara dagens 4GB kort inte av i upplösningen 1024x768 eller 1280x1024?
Dessutom vet vi inte hur det kommer att funka om du ex kör med 2 kort under DX12 vilket är framtiden, under DX12 kan minnet från båda korten användas som en gemensam minnespol vilket gör att du i det fallet har 8GB till förfogande när du kör med 2 st. 4GB kort.

1024x768 körde man väll ändå på 90-talet?
Visst kan du ladda olika data till korten i DX12 men då renderar de också olika scener, vill du få ut dubbla prestandan så måste samma data ändå ligga på båda korten, annars blir det som om korten får slut på minne ock måste laddas om via CPU/RAM/PCI-E, dvs enkelsiffrig fps.

Permalänk
Hjälpsam
Skrivet av anon999:

Men du är säker på att GPU'n räcker oavsett minnesmängd?

Nej absolut inte, men jag vet att minnet räcker, mer minne ger ju inte sämre prestanda för GPU:n.
För lite minne ger ofta obehagliga fenomen, frysingar, konstiga hack, stutter i vissa situationer.
För klen GPU gör mest att spelet blir segare, bara att skruva ned någon inställning, detsamma gäller iofs vad gäller för lite minne, men du har en parameter mindre som kan krångla.

Lite som klenare CPU med mycket arbetsminne mot en starkare med mindre, tar minnet slut blir allt väldigt obehagligt, en klenare CPU med mycket minne går ofta långsammare men allt flyter fortfarande på även när mycket minne används.

Visa signatur

AMD Ryzen 7 5700X | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/51gntq | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/gwcxfs
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Medlem
Skrivet av anon999:

Men du är säker på att GPU'n räcker oavsett minnesmängd?

I vilket fall är det alltid bättre att maxa GPU eller grafikkortets minnesbandbredd än att få slut på minne och skyffla om allt via RAM/CPU/PCI-E till grafikkortet varje frame. Kortet kanske inte klarar att utnyttja hela 8GB i gissningsvis 120 fps, men då kanske man bör välja ett annat kort.

Permalänk
Inaktiv
Skrivet av Dalton Sleeper:

1024x768 körde man väll ändå på 90-talet?
Visst kan du ladda olika data till korten i DX12 men då renderar de också olika scener, vill du få ut dubbla prestandan så måste samma data ändå ligga på båda korten, annars blir det som om korten får slut på minne ock måste laddas om via CPU/RAM/PCI-E, dvs enkelsiffrig fps.

2 vanligaste upplösningarna verkar ha varit 1980x1080 och 1366x768 enligt KitGuru. Så samma scen kan inte fördelas på båda korten map. minnet, isf. är det knappas att betrakta som en gemensam minnespol. Fortfarande har du inte sagt vilka spel du avsåg. Även om det kommer nya spel som går att köra i högre upplösningar kommer de väl fortfarande att kunna köras i 1080p och 1440p eller menar du att de spel som släpps om säg 2 år inte kommer att kunna köras öht.?

Permalänk
Inaktiv

Det räcker ju faktiskt att blicka tillbaks på första generationen 40nm grafikkort från AMD och Nvidia. AMDs HD7970 står sig fortfarande bra, mycket tack vare att den fick 3GB VRAM (som många tyckte var overkill vid tidpunkten). Nvidias GTX 680 som var kortet som slogs mot denna hade 2GB VRAM. Full tillräckligt vid tidpunkten tyckte många men ett par år senare och 2GB VRAM är rätt begränsande. Samma sak lär vi nog se här där 8GB-kort kommer hålla längre än 4GB-kort.

Permalänk
Medlem
Skrivet av anon5930:

Det räcker ju faktiskt att blicka tillbaks på första generationen 40nm grafikkort från AMD och Nvidia. AMDs HD7970 står sig fortfarande bra, mycket tack vare att den fick 3GB VRAM (som många tyckte var overkill vid tidpunkten). Nvidias GTX 680 som var kortet som slogs mot denna hade 2GB VRAM. Full tillräckligt vid tidpunkten tyckte många men ett par år senare och 2GB VRAM är rätt begränsande. Samma sak lär vi nog se här där 8GB-kort kommer hålla längre än 4GB-kort.

Den största indikationen på att 8GB är en bra idé är att de nya konsolerna kommer att utrustas med 8GB VRAM enligt rykten och det kan faktiskt peka på att speltillverkarna kommer att använda sig av lösningar som kräver mer grafikminne.

Dock är det faktiskt inte fel att påstå att 4GB räcker IDAG, då det faktiskt gör det. Bara för att korten allokerar mer än 4GB betyder inte att det krävs mer än 4GB. Men jag kan ändå hålla med om att det känns mer framtidssäkert med 8GB.

Visa signatur

AMD RYZEN 9 5900X - ASUS ROG X470-F STRIX - 32GB DDR4 @ 3200MHz - ASUS RTX 3070 Ti

Permalänk
Inaktiv

Kollar man på Kit Gurus review ser man att samtliga titlar knappt är spelbara vid 4K och det gäller för både 8GB och 4GB versionen av RX 480 samtidigt som det bara skiljer 2 FPS mellan korten, undantagen var Metro där det skiljde 11 FPS och Hitman med 4 FSP i skillnad. Det här tolkar jag som att huvudorsaken till att RX 480 4GB inte hänger med i 4K upplösningen är GPU'n och inte minnesmängden.

https://www.kitguru.net/components/graphic-cards/zardon/sapph...

Permalänk
Medlem
Skrivet av anon5930:

Det räcker ju faktiskt att blicka tillbaks på första generationen 40nm grafikkort från AMD och Nvidia. AMDs HD7970 står sig fortfarande bra, mycket tack vare att den fick 3GB VRAM (som många tyckte var overkill vid tidpunkten). Nvidias GTX 680 som var kortet som slogs mot denna hade 2GB VRAM. Full tillräckligt vid tidpunkten tyckte många men ett par år senare och 2GB VRAM är rätt begränsande. Samma sak lär vi nog se här där 8GB-kort kommer hålla längre än 4GB-kort.

Vet inte om det här stämmer. Har själv ett 680 fortfarande som jag kör överklockat och jag tvingas vrida ner inställningarna för att gpun är för klen för att generera tillräckligt hög fps, inte pga minnesbrist. Med 2gig finns det säkert situationer där det stämmer dock, tex om du vill köra witcher 3 på ultra på 1080p kring 30 fps. I den eller liknande situationer kan du säkert få fryslagg pga minnet, men vem vill göra det då man kan få bra bildfrekvens på medium?

Rent generellt om du vill ha upp emot 60fps i nya titlar så måste du stänga av aa och sänka kvaliten till medium/high. Om jag skulle köpa ett nytt kort idag i mellanklassen, typ 480, skulle jag enbart ta 8gig minne om prisskillnaden var 2-300kr (om ens då).

Visa signatur

Asus Z87-A| 4770k@4.5GHz@1.19v|Gtx680@+100MHz offset - Accelero Hybrid| 2x4GB Corsair 1600MHz DDR3| Samsung 830 series SSD 256GB| Asus Xonar essence STX| Corsair HX620w| Define XL| giefscience.com | Jag streamar på Twitch

Permalänk
Inaktiv
Skrivet av Stoff3th3m4n:

Den största indikationen på att 8GB är en bra idé är att de nya konsolerna kommer att utrustas med 8GB VRAM enligt rykten och det kan faktiskt peka på att speltillverkarna kommer att använda sig av lösningar som kräver mer grafikminne.

Dock är det faktiskt inte fel att påstå att 4GB räcker IDAG, då det faktiskt gör det. Bara för att korten allokerar mer än 4GB betyder inte att det krävs mer än 4GB. Men jag kan ändå hålla med om att det känns mer framtidssäkert med 8GB.

Både PS4 och Xbox One kom med 8GB minne som dessutom delas för systemet. Neo och Scorpio lär ju båda få mer minne vilket kommer göra 8GB VRAM rätt vettigt, även om 4GB säkert går bra närmaste två åren.

Sant, 4GB räcker idag men det var också lika för 4 år sedan då 2GB också räckte. Beror ju mycket på hur länge man vill kunna sitta på sitt kort.

Nu brukar jag förvisso personligen alltid se till att dra till lite extra med minne då jag vet att minneskraven ständigt ökar. Alltid skönt att ha ett system som håller i flera år, speciellt idag då man sällan kan göra några smidiga uppgraderingar när det ska bytas socklar varje år snudd på.

Skrivet av Fjaman:

Vet inte om det här stämmer. Har själv ett 680 fortfarande som jag kör överklockat och jag tvingas vrida ner inställningarna för att gpun är för klen för att generera tillräckligt hög fps, inte pga minnesbrist. Med 2gig finns det säkert situationer där det stämmer dock, tex om du vill köra witcher 3 på ultra på 1080p kring 30 fps. I den eller liknande situationer kan du säkert få fryslagg pga minnet, men vem vill göra det då man kan få bra bildfrekvens på medium?

Rent generellt om du vill ha upp emot 60fps i nya titlar så måste du stänga av aa och sänka kvaliten till medium/high. Om jag skulle köpa ett nytt kort idag i mellanklassen, typ 480, skulle jag enbart ta 8gig minne om prisskillnaden var 2-300kr (om ens då).

HD7970 har dragit ifrån GTX 680 under åren. En bekant som kört två GTX 670 i SLI bytte nyligen till ett GTX 1070 då 670 korten inte längre duger att driva spel. SLI blir ett problem i många nyare spel då stödet är rätt dåligt. Han verkar nöjd med bytet dock, även om jag tycker han betalade lite väl mycket för kortet.

HD7970 tjänar på både minnesmängden men också GCN-arkitekturen som utnyttjas väl idag i och med DirectX 12 och Vulkan. GTX 680 får inte ut så mycket av dessa nyare API'er. Dock är det väl också en fråga om hur länge man verkligen vill sitta med ett gammalt kort med förstås, rätt svårt att sia om vilket kort som lär stå sig bättre. Men just att inte snåla på minnet är en sak som jag personligen anser vara självklart, i och med att minneskraven ständigt ökar.