Jag är ju ingen expert på minnesanvändning, men min tankegång bygger på att ända sedan id hävdade att Doom 3 behövde 512 MB för att kunna leverera högsta grafiska kvalitet, och Beyond3d inte kunde se nämnvärd skillnad mellan 256- och 512-korten i sina tester, visar det sig att kraven på minne varierar på var man testar i spelet.
Doom 3 var optimerat på de flesta ställen utan prestandadippar, men det fanns områden där 256 MB inte räckte till. En annan fråga är hur stor roll det spelar såklart. Det finns flera tester av RE Village som inte visar några "oväntade" resultat, men i Guru3d:s test visar 3060 upp en starkare sida än både 3060 Ti och 3070 i 4K, och just i det här fallet blir det relevant, eftersom 3060 visar klart spelbar prestanda. Hade det inte varit det, hade det varit en akademisk diskussion:
https://www.guru3d.com/articles_pages/resident_evil_village_p...
Svårt att utläsa vad som händer bara av medelvärden såklart, men eftersom även 6700XT med 12 GB bryter kurvan vid 4K, så är min tolkning (och Guru3d:s) att minnet tar slut för 8 GB-korten. Försämringen pga lägre minnesmängd överstiger fördelen med bättre raytracing. Hade däremot 3060 Ti och 3070 haft 12 GB de med, skulle vi inte se de två korten falla under 3060 och 6700XT.
ReBAR och SAM kan hjälpa till, och även "fusk" som FSR och DLSS såklart, men inte alla spel kommer att få DLSS eller FSR, så mer faktiskt minne som 16 GB på Alchemist kan ge prestandafördelar i spel med högupplösta texturer i kombination med raytracing. Ska ivf bli kul att se om minnet påverkar prestandan i Far Cry 6. Det tror nämligen jag.
Det kan förklara det något konstiga steget i kraven från 1440p/60 till 4K/30: AMD går ned, från 6900XT till ett kort som presterar sämre (6800), men Nvidia går upp till 3080. Varför räcker inte 3070 för att mäta sig med 6800?
Citat:
1440p, 60 FPS, DirectX Raytracing On
GPU: AMD RX 6900XT – 16 BG or NVIDIA RTX 3070 – 8 GB
4K, 30 FPS, DirectX Raytracing On
GPU: AMD RX 6800 – 16 GB or NVIDIA RTX 3080 – 10 GB
Svaret är högst troligt minnesmängden; Nvidia är tvungna att gå upp till ett kort med mer minne. Kravet på minnesmängd övertrumfar raytracingprestandan på samma sätt som i RE Village. Två kurvor läggs samman; prestanda beroende dels på minnesmängd och dels raytracingprestanda, och det sammanvägda resultat avgör vad som krävs.
Raytracingprestandan på 6800 räcker inte till riktigt för 1440p/60, det krävs ett 6900XT eller ett 3070, men 8 GB minne räcker. När spelet går upp i 4K/30 räcker dock kombinationen av raytracing och minne hos ett 6800 till, men trots att raytracing för 3070 också då "borde" räcka till, håller dess 8 GB kortet tillbaka, och man är tvingad att gå upp till nästa minnesmängd i RTX-serien för att kompensera, dvs till 3080 och dess 10 GB. Hade 3070 haft 10 GB hade det ju räckt.
Frågan är sen om dessa krav är med högupplösta texturer? Räcker 10 GB i 4K då? Nu har ju spelet FSR, och som tur är för Nvidia funkar FSR för deras kort också... men även för Alchemist med 16 GB.