AMD Radeon R9 390X "Fiji" får 8 GB videominne efter ändrade planer

Permalänk
Medlem
Skrivet av sesese:

Nu snackar vi. Det är minnet som är begränsningen idag inte Gpu kraften. 8Gb kommer att göra det möjligt att köra många spel på max grafik i 4K.

Du har fel.

Visa signatur

GPU 2080Ti Moderkort ROG Crosshair VIII Formula x570
CPU 5900x Minne Corsair 32GB 3600Mhz Nätagg Corsair AX 1200i
Chassi Lian-Li PC-O7S
Skärm C49RG9x 120Hz Hårddisk Corsair MP600 Kylning husradiator, EK Blocks

Permalänk
Medlem
Skrivet av Tobbbe__:

Du har fel.

Ok förklara ?????????? så med 3st 390X 8Gb går det fortfarande inte nå 60Hz 4K

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Skrivet av Ignostic:

4GB kommer sannolikt inte räcka speciellt längre till om man ska spela i 4K upplösning. Crysis 3 på very high använder nästan 3.7GB

Iofs, men vid knappt 3GB använt minne på ett Titan så låg dom på 21 FPS i Crysis 3 utan AA, dvs beräkningsprestandan flaskade långt innan minnet. Frågan är om det kommer fortsätta vara så?

Visa signatur

Dator: i5-13600K, Asus Prime Z690-P, Noctua NH-D14, Kingston Fury Beast RGB 32GB DDR5-6000, Gigabyte RTX 4090 gaming OC, Seasonic Platinum SS-1000XP, Lian-Li Lancool 215, Samsung 980Pro 2TB M.2 NVME, Acer Predator XB323QKNV 4k 144Hz

Permalänk
Medlem

Knappast oväntat, och har nämnt detta innan. Fudzilla är dock ingen nämnvärd källa på det dock.

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Medlem
Skrivet av Burks:

Jag som trodde att TDP stog för Thermal design power.

Det brukar det betyda ja

Citat:

Som jag tolkar der så är det vad kylaren till varje enskilt kort kan hantera, alltså "har det ingent" med hur många watt korten drar.

Tja inget och inget
Det har att göra med det, men är inte exakt samma sak. Precis som du skriver så har det att göra med hur mycket värme kylaren ska kunna klara av. Så man bör dimensionera kylaren efter vad kretsen har för TDP värde. Sedan kan kretsen glatt förbruka mer pga förluster, inte minst i olika spännings-reglerings-steg. Tex så brukar spänningsregleringen på grafik-kort avge en del värme och korten burkar därför kunna "dra" mer, beroende på hur effektiv spänningsreglering man har (plus förluster i datorns kraftaggregat förstås). För att göra det ännu värre så gör har vissa tillverkar lite olika idéer om vad de ska ange för värde, del ger ett teoretiskt max-värde, andra ett sorts medelvärde etc. Kylare för entusiast grejer burkar kunna vara ganska överdimensionerade, det gör ju absolut inget om kylaren kan kyla bort dubbelt så mycket värme som kretsen har i TDP värde. Särskilt om man vill övercklocka
Annars i elektronik-industrin så burkar inte kylare vara dimensionerade för att klara max TDP över längre tid, utan snarare gjorda för kortare "spikar".

Sedan kan grafikkortstillverkare ange ett TDP värde för hela kortet, dvs hur man bör dimensionera en kylare för hela kortet. Men samtidigt om har man bra/effektiv spänningsreglering så har den delen mindre betydelse. VRAM burkar inte heller behöva sådär överdrivet mycket kylning jämfört med själva GPU:n. HBM bör dessutom dra märkbart mindre ström än motsvarande GDDR5 (iaf räknat i Watt per Gb/s).

Nvidia anger inte ett TDP-värde för "worst case" för sina GPU:er. Utan mer ett medelvärde (ett antal spel för gaming-korten tex). Ett GTX 980 kommer avge mer värme än det angivna TDP värdet om man tex kör Furmark på det ett tag. AMD har traditionellt angett TDP-värden som varit värsta tänkbara. Men enligt uppgift vill de gärna komma ifrån detta, precis som Intel (se SDP tex).

Så ja, att TDP anges vara X för produkt Y betyder nödvändigtvis inte att produkt Y kommer förbruka X Watt under drift. Men det ger en fingervisning för i vilken liga produkten spelar i. Och 300 Watt TDP för en GPU är entusiast-klass idag och har varit det ett tag.

Dessutom är siffran 300 Watt egentligen bara ett rykte (verkar ju vara hyfsat ändå) och ~250W för TitanX är ju baserat på vilka kontakter de kort som figurerat på bild har (en 6-pin + en 8-pin). Så vad korten kommer förbruka vet vi ju inte, det får vi se när våra vänner på Sweclockers et al gör riktiga tester och publicerar sin data

Visa signatur

--
A shark on whiskey is mighty risky, but a shark on beer is a beer engineer.

Permalänk
Medlem
Skrivet av sesese:

Ok förklara ?????????? så med 3st 390X 8Gb går det fortfarande inte nå 60Hz 4K

Du sa inget om flerkortslösningar och du sa dagens GPU:er...

Skickades från m.sweclockers.com

Permalänk
Medlem

För att ett grafikkort ska kunna visa 4K-upplösning i 32-bitplane, krävs en framebuffer på endast 32Mb.
Detta gäller alltså om man bara buffrar den aktuella bilden som ska visas för tillfället.

Därefter tillkommer utrymme för beräkningar, men framförallt texturer. Vilket leder mig till en fråga; Varför alla dessa högupplösta texturer? Fatta, 4 GIGABYTE med simpla BILDER!!, 99% av minnet går åt till att lagra dessa bilder. Är det inte slut med det tramset snart? Texturer är och har alltid varit en nödlösning för att fuska till hyffsad grafik bara för att man är "lat", eller för att det saknas GPU-kraft.

Om man istället satsar mer på raytracing, kommer behovet av texturer minska drastiskt. Jag tror att utvecklingen kommer att gå mer mot raytracing och dessa gigantiska grafikminnen är snart ett minne blott.

Permalänk
Medlem
Skrivet av LeVvE:

Med 8GB vram känns det fortfarande som det lätt kan bli en prislapp på 10-15k.

Om inte AMD är riktigt korkade så kommer de släppas med vanliga AMD-priser. 5k-6k-snåret skulle jag tro, vilket skulle göra att AMD kan ta över en stor del av high-end marknaden med bara ett kort. Det skulle göra att enormt många byter från Nvidia till AMD. Nvidia har ingenting att kontra med i dagsläget, så AMD skulle kunna rulla sig i pengar ett tag iaf..

Visa signatur

9900k | Z390 AORUS MASTER | 32GB RAM | Red Devil AMD Radeon™ RX 7900 XTX | XFX Black 1250W | BeQuiet Pure Base 500 | Fractal Design Celsius S36 | Samsung 970 500GB + Corsair MP510 960GB | Dell U3415W | Windows 11 Professional

Permalänk
Medlem

Hade inte tänk köpa något kort ur 3xx-serien men under helgen som var gick mitt ena 290 och självdog helt utan anledning. Bara vänta och se om det är värt att köpa ett av de kommande korten.

Visa signatur

| Fractal Design Define Mini C | MSI Z490M MPG GAMING EDGE | Corsair RM750X 750W v2 | Intel Core i5 10600K |
|GIGABYTE RTX 3070 AORUS Master |Corsair 32GB DDR4 3200MHz CL16 |
| Asus Strix Raid DLX | Acer 27" Predator XB271HK G-Sync 4K IPS | Tobii 4C |
| LG OLED55B6V | nVidia Shield V2 |

Permalänk
Medlem
Skrivet av warh0g:

Vilken mängd videominne behövs för 2560x1440 @ 144hz?

16-32MB borde räcka, resten beror på vad du kör för spel och med hur tunga texturer. Kan vara 3GB och kan vara 300MB.

Skrivet av Dinoman:

Du är uppenbarligen inte så insatt i ämnet.

Titan/780 Ti = 250W
GTX 580 = 244W
GTX 480 = 250W
GTX 280 = 236W

R9 290x = 290W
HD 7970 Ghz = 300W
HD 6970 = 250W
HD 5870 = 188W
HD 4870 = 150W

Och då hör det till saken att 7970GHz är bra mycket snålare än 780Ti i praktiken, ja betydligt snålare än GTX 580 också. För att inte tala om 6970.

Skrivet av Burks:

Jag som trodde att TDP stog för Thermal design power.

Som jag tolkar der så är det vad kylaren till varje enskilt kort kan hantera, alltså "har det ingent" med hur många watt korten drar.

Om jag tar fel så förklara gärna varför

Därmed blir det synonymt för den MAX-effekt ett kort kan ligga på mer än vid eventuellt korta spikar.

Permalänk
Medlem
Skrivet av Storage Jar:

Hade inte tänk köpa något kort ur 3xx-serien men under helgen som var gick mitt ena 290 och självdog helt utan anledning. Bara vänta och se om det är värt att köpa ett av de kommande korten.

Inget kvitto/garanti?:)

Permalänk
Medlem

Ska bli intressant att se pris på detta kort. Jag tror att många förväntar sig ett för lågt pris, med tanke på att HBM är en helt ny teknik så kommer priset dra iväg. Om 390x hade kostat ~5k vid release när det satte med 4GB, hur mycket kommer det då kosta med 8GB?

Visa signatur

You have earned my respect and my friendship.

Permalänk
Medlem
Skrivet av thorsama:

Ska bli intressant att se pris på detta kort. Jag tror att många förväntar sig ett för lågt pris, med tanke på att HBM är en helt ny teknik så kommer priset dra iväg. Om 390x hade kostat ~5k vid release när det satte med 4GB, hur mycket kommer det då kosta med 8GB?

Mycket av priset på ett grafikkort är där för att täcka utvecklingskostnader, inte tillverkningskostnader. Det är därför som 7970GHz som släpptes dyrt kan vara mellanklass idag. Släpper de en variant med 8GB så kommer den sannolikt bli dyr ja, men det kan också innebära att 4GB-varianten pressas nedåt.

Permalänk
Moderator
Testpilot
Skrivet av Aleshi:

Och då hör det till saken att 7970GHz är bra mycket snålare än 780Ti i praktiken, ja betydligt snålare än GTX 580 också. För att inte tala om 6970.

Absolut. TDP är ett invecklat fenomen att studera. Då skall tilläggas att AMD och Nvidia inte mäter sina värden på samma sätt, så vitt jag förstår så mäter ingen på samma sätt då det inte finns en etablerad standard på området.

Jag syftade enbart till att visa personen hur galet hans uttalande var, inte att jämföra TDP mellan tillverkarna då man gör bäst i att kolla på faktiskt energiåtgång i diverse tester som görs, till exempel här på Swec.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av Danieleet:

Inget kvitto/garanti?:)

Tydligen så har jag garanti trots allt. Trodde det bara var EVGA som behöll garantin om man byter kylare.

Visa signatur

| Fractal Design Define Mini C | MSI Z490M MPG GAMING EDGE | Corsair RM750X 750W v2 | Intel Core i5 10600K |
|GIGABYTE RTX 3070 AORUS Master |Corsair 32GB DDR4 3200MHz CL16 |
| Asus Strix Raid DLX | Acer 27" Predator XB271HK G-Sync 4K IPS | Tobii 4C |
| LG OLED55B6V | nVidia Shield V2 |

Permalänk
Inaktiv

R9 380X med 8GB?

Permalänk
Medlem

3x 4k eyefinity! Wiho! Nu väntar bara dom x antal skiften man får ta på helgerna..

Skickades från m.sweclockers.com

Visa signatur

Före sändningsdags hade gruppen instruerats av programledningen att inte sjunga ordet higher i textraden "girl we couldn't get much higher" i TV, utan istället byta ut det mot better. Jim Morrison struntade dock i det.

Permalänk
Medlem
Skrivet av Jygge:

Kommer att kosta en del jag fråga mig behöver man 8 & 12 Gb grafikkort i mina ögon ganska overkill
men jag klaga inte 4Gb blir billigare

Någonsin funtat på att använda interpunktionstecken?

OnT: Blir spännande detta, kanske snart dags att byta ut mitt 690 trots allt.

Visa signatur

Skärm: Acer Predator X34A • Moderkort: ASUS Maximus V Gene • CPU: Core i5 2500K @ 4GHz • RAM: Corsair Vengeance DDR3 1600MHz 16GB • GPU: ASUS GeForce GTX 1080 • APU: ASUS ROG Xonar Phoebus • SSD: Intel X-25 M 80GB • HDD: WD Caviar Black 1TB, Hitachi Deskstar 1TB

Permalänk
Medlem
Skrivet av tvelander:

Kan inte ens maxa 4 kort på 1750W men ja du ^^

Jag spelar bara med 1 kort på Titans atm inte 4a då 1300W är för lite.

Så du klagar på att AMD kort drar mer effekt, när det första du gör med Nvidias kort är att OC de tills ditt PSU inte orkar leverera nog med kraft. Känns lite som att Nvidia borde klockat korten bättre, något AMD redan gör färdigt till dig. Bara att plugg in.

Förstår varför du gör det. Men att säga att man vill ha ett strömsnålt kort för att man sen ska trycka en kärnreaktors energi genom det... är lite... fel.

Skrivet av sesese:

Nu snackar vi. Det är minnet som är begränsningen idag inte Gpu kraften. 8Gb kommer att göra det möjligt att köra många spel på max grafik i 4K.

Om man ska tro Nvidia och mer än halva forumet så är det tydligen inte så. För 4GB på 256Bit buss räcker och blir över... Vill man ta i på ett värsting kort för 10-15kkr så får man hela 12GB på 384-bit.

Frågan är.. om man hade haft dubbla mängden, och dubbel bandbredd, hade man kanske kunnat använda det? (Om man vet att man kan koda för det)

Permalänk
Medlem
Skrivet av Paddanx:

Så du klagar på att AMD kort drar mer effekt, när det första du gör med Nvidias kort är att OC de tills ditt PSU inte orkar leverera nog med kraft. Känns lite som att Nvidia borde klockat korten bättre, något AMD redan gör färdigt till dig. Bara att plugg in.

Förstår varför du gör det. Men att säga att man vill ha ett strömsnålt kort för att man sen ska trycka en kärnreaktors energi genom det... är lite... fel.

Ett strömsnålt kort är svalare och kan ofta klocka högre, samtidigt som det minskar risken att nätagget inte orkar med vid extrem klockning. Inget konstigt med att vilja ha ett strömsnålt kort om man vill klocka.
Men, 780Ti har inte fått kritik alls från många håll, trots att det drar ganska lika som 290X.

Permalänk
Medlem
Skrivet av Aleshi:

16-32MB borde räcka, resten beror på vad du kör för spel och med hur tunga texturer. Kan vara 3GB och kan vara 300MB.

Tänkte att frågan var relevenat till minnesmängden på de nya grafikkorten som diskuterades. Som du säkert själv förstår så är det inte Minesweeper som står på menyn.

Visa signatur

“Problems that remain persistently insoluble should always be suspected as questions asked in the wrong way.” ― Alan W. Watts

Permalänk

Låter väldigt bra detta. Undra om 8GB kan hitta ner i de lägre prisklasserna eller om man kommer få 4GB där för det hade varit riktigt bra i så fall.

Visa signatur

Bärbar Speldator: AMD Ryzen 5 5600H I Nvidia RTX 3050 Ti
Xiaomi Poco X3 Pro I Nvidia Shield TV V2 I PS4 I

Permalänk
Master of Overkill
Skrivet av Paddanx:

Så du klagar på att AMD kort drar mer effekt, när det första du gör med Nvidias kort är att OC de tills ditt PSU inte orkar leverera nog med kraft. Känns lite som att Nvidia borde klockat korten bättre, något AMD redan gör färdigt till dig. Bara att plugg in.

Förstår varför du gör det. Men att säga att man vill ha ett strömsnålt kort för att man sen ska trycka en kärnreaktors energi genom det... är lite... fel.

Om man ska tro Nvidia och mer än halva forumet så är det tydligen inte så. För 4GB på 256Bit buss räcker och blir över... Vill man ta i på ett värsting kort för 10-15kkr så får man hela 12GB på 384-bit.

Frågan är.. om man hade haft dubbla mängden, och dubbel bandbredd, hade man kanske kunnat använda det? (Om man vet att man kan koda för det)

Inte riktigt.
Varför skulle jag vilja färdigt OC kort?
Vill ju kunna överklocka själv.

Därav köpte jag 980 nu, då Titan drar för mycket.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem
Skrivet av warh0g:

Tänkte att frågan var relevenat till minnesmängden på de nya grafikkorten som diskuterades. Som du säkert själv förstår så är det inte Minesweeper som står på menyn.

Han har dock rätt i sak. Kör du ett spel utan AA är det praktiskt taget ingen skillnad på minnesåtgång mellan 1920x1080 och 2560x1440. Med hög AA ökar dock minneskravet nästan exponentiellt. Nu menar jag riktig AA också, ingen pixel/shaderbaserad variant.

MP3 är ett spel som visar åtgången - hur korrekt den är vet jag inte, men det stämmer i alla fall med vad som verkar logiskt vettigt. Tog ett par bilder just nu för att visa.

1920x1080 ingen AA
http://abload.de/img/mp3_1920x1080_noaalru1t.jpg

2560x1440 ingen AA
http://abload.de/img/mp3_2560x1440_noaaxuuzf.jpg

133MB mer för 2560x1440 jämfört med 1920x1080

2560x1440 8xMSAA
http://abload.de/img/mp3_2560x1440_8xmsaa93ufm.jpg

Edit: Tog ingen bild på 1920x1080 med 8xMSAA men den låg på cirka 2000MB.

Permalänk
Medlem
Skrivet av Buio:

Han har dock rätt i sak. Kör du ett spel utan AA är det praktiskt taget ingen skillnad på minnesåtgång mellan 1920x1080 och 2560x1440. Med hög AA ökar dock minneskravet nästan exponentiellt. Nu menar jag riktig AA också, ingen pixel/shaderbaserad variant.

MP3 är ett spel som visar åtgången - hur korrekt den är vet jag inte, men det stämmer i alla fall med vad som verkar logiskt vettigt. Tog ett par bilder just nu för att visa.

1920x1080 ingen AA
http://abload.de/img/mp3_1920x1080_noaalru1t.jpg

2560x1440 ingen AA
http://abload.de/img/mp3_2560x1440_noaaxuuzf.jpg

133MB mer för 2560x1440 jämfört med 1920x1080

2560x1440 8xMSAA
http://abload.de/img/mp3_2560x1440_8xmsaa93ufm.jpg

Edit: Tog ingen bild på 1920x1080 med 8xMSAA men den låg på cirka 2000MB.

Alltid uppskattat när folk tar sig tid till sådant här.

Permalänk
Moderator
Testpilot
Skrivet av Swedish Berserk:

Låter väldigt bra detta. Undra om 8GB kan hitta ner i de lägre prisklasserna eller om man kommer få 4GB där för det hade varit riktigt bra i så fall.

Du behöver inte 8GB VRAM i dom lägre prisklasserna då den sortens GPU inte klarar av att driva ett spel som kommer vara så krävande.

Bara att jämföra med R9 290x 4GB vs. 8GB. Prestandamässigt är det totalt 14% övertag för 8GB-varianten i 4K-upplösning men spelen är nere och haltar på 30FPS vilket tyder på att det spelar ingen roll ändå, spelen är så sega oavsett. GPU:n klarar inte av det helt enkelt. Visst, för den riktigt nischade med crossfire-setup kanske annars inte.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk

priset kommer landa runt 20 000 , så det blir bara justin bieber som har råd , och några enstaka personer på sweclockers

Permalänk
Moderator
Testpilot
Skrivet av Buio:

Han har dock rätt i sak. Kör du ett spel utan AA är det praktiskt taget ingen skillnad på minnesåtgång mellan 1920x1080 och 2560x1440. Med hög AA ökar dock minneskravet nästan exponentiellt. Nu menar jag riktig AA också, ingen pixel/shaderbaserad variant.

MP3 är ett spel som visar åtgången - hur korrekt den är vet jag inte, men det stämmer i alla fall med vad som verkar logiskt vettigt. Tog ett par bilder just nu för att visa.

1920x1080 ingen AA
http://abload.de/img/mp3_1920x1080_noaalru1t.jpg

2560x1440 ingen AA
http://abload.de/img/mp3_2560x1440_noaaxuuzf.jpg

133MB mer för 2560x1440 jämfört med 1920x1080

2560x1440 8xMSAA
http://abload.de/img/mp3_2560x1440_8xmsaa93ufm.jpg

Edit: Tog ingen bild på 1920x1080 med 8xMSAA men den låg på cirka 2000MB.

Inte helt sant. Beroende på spel så kan det bete sig lite olika.

För mig så förändras minnesanvändningen rätt märkbart beroende på upplösning i Dragon Age: Inquisition.

1200p = ~2.5GB
1440p = ~2.9GB
4K = ~3.6GB

Allt utan AA, med MSAA x4 så läggs det på runt 3-400MB.

http://imgur.com/a/Y8ZGC

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av Dinoman:

Inte helt sant. Beroende på spel så kan det bete sig lite olika.

För mig så förändras minnesanvändningen rätt märkbart beroende på upplösning i Dragon Age: Inquisition.

1200p = ~2.5GB
1440p = ~2.9GB
4K = ~3.6GB

Allt utan AA, med MSAA x4 så läggs det på runt 3-400MB.

http://imgur.com/a/Y8ZGC

Samtidigt är det det lite problematiskt att använda verktyg som kollar använt grafikminnet och dra slutsatser från det. Anledningen är att det är svårt att veta hur spel allokerar minne och vad som behövs och bara är cache. Jag använde MP3 eftersom det är enda spelet jag sett på senare tid som har en minnesmätare. Men visst är det olika per spel, beror alldeles på hur spelmotorn fungerar.

Permalänk
Moderator
Testpilot
Skrivet av Buio:

Samtidigt är det det lite problematiskt att använda verktyg som kollar använt grafikminnet och dra slutsatser från det. Anledningen är att det är svårt att veta hur spel allokerar minne och vad som behövs och bara är cache. Jag använde MP3 eftersom det är enda spelet jag sett på senare tid som har en minnesmätare. Men visst är det olika per spel, beror alldeles på hur spelmotorn fungerar.

Förvisso men det är ju också så att om motorn vill allokera en viss mängd minne så finns det ju säkert goda anledningar till det och om du inte har minne så att den kan allokera det den vill så kommer ju det garanterat på ett eller annat sätt påverka prestanda. Pop-in, stutter, etc.

Logiskt sett så behöver grafikkortet fylla frame buffer och med högre upplösning så ökar ju det lagringsbehovet vilket torde påverka användandet av VRAM. Texturerna är ju däremot av samma storlek oavsett.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt