Godfall använder 12 GB grafikminne i 4K-upplösning

Permalänk
Medlem

Vad som kändes imponerande vid första ögonkastet börjar kännas mer och mer som dead on arrival. Nvidia gjorde många saker rätt med 3080, men då både PS5 och Series X har 16GB GDDR6 så känns det som att Nvidia har gjort en rejäl miss när det kommer till minne. Visserligen är det 16GB shared memory, men det kan inte vara mer än 2-3 GB som är dedikerat till systemet. Så ~12GB lär bli minimum för next-gen.

Visa signatur

Intel i5 12600K | Asus TUF Gaming Z690-Plus D4 | Asus Geforce RTX 3060 Ti | 32 GB DDR4 | Fractal Design North | Corsair iCue Link H100i | Cooler Master V750 Gold i Multi

Permalänk
Avstängd
Skrivet av Gender Bender:

Vad som kändes imponerande vid första ögonkastet börjar kännas mer och mer som dead on arrival. Nvidia gjorde många saker rätt med 3080, men då både PS5 och Series X har 16GB GDDR6 så känns det som att Nvidia har gjort en rejäl miss när det kommer till minne. Visserligen är det 16GB shared memory, men det kan inte vara mer än 2-3 GB som är dedikerat till systemet. Så ~12GB lär bli minimum för next-gen.

Nvidias räddning är att många inte kan köpa korten ändå

Visa signatur

7800x3d, 64GB 6000cl30, Gigabyte X670 Gaming X AX (F9d) 12TB m.2/nvme, 8TB SSD, WD 2x12TB 5400rpm, XFX 7900xt, SoundBlasterX AE-5+, HP X34", Fractal Design Define 7, Corsair HX750, Topping MX3s, Ino Audio piMx, Dan Clark Audio Aeon 2 closed..
LG B1 65", Topping e70, Topping pa5 II plus, Guru Audio Junior+ (primärt) / Canton GLE 90, Nintendo Switch OLED, Pico 4 VR

Permalänk
Medlem

Hah precis vad jag satt å tänkte. Att RX 6700XT kommer ha sweetspot vad gäller pris/prestanda och att 12 GB vram kommer ligga på gränsen för nästa generation.

Visa signatur

Gilla min Guide till sweclockers tävlingen! :D : #12510535

Min Sweclockers-låt som aldrig deltog i Jultävlingen. Enjoy! https://www.youtube.com/watch?feature=player_embedded&v=g7gof...

Permalänk
Skrivet av mrqaffe:

Bra, låt saker bli snygga i 4k och fös bort alla de som klamrar sig kvar vid lågupplöst grafik, de som inte vill klamra sig fast bör välja amd eller vänta tills ti modellerna kommer.

Ja fast varken ett RTX 3090 eller ett 6900 XT är fortfarande bra nog för 4K enligt mig - så länge de inte klarar att leverera 120+ FPS i de flesta spel - så kanske därav vi "klamrar oss fast" vid 1440p? Personligen kommer jag dock vänta med grafikkortsköp tills nästa generation men kommer kliva på en Ultrawide med "bara" 3440x1440p 144Hz. Det blir min nästa sweetspot från 2560x1440p 16:9 AMD's drivrutiner har känts sådär i bra många år, men skulle definitivt ge dem en chans denna generation om jag verkligen kände att jag var tvungen.

Tog bort @ då det orsakade att det såg ut som en länk
Visa signatur

🎮 AMD Ryzen 5 5600X | G.Skill 32GB 3600MHz CL16 DDR4 | ASUS Strix B550-F | ASUS RTX 3080 TUF
Fractal Meshify 2 Compact | 🖥️ ASUS PG279Q | ⌨️ Logitech G915 TKL | 🖱️ Logitech G PRO X SUPERLIGHT
🎧 Beyerdynamic TYGR 300R | 🔈 JBL 305P MKII | 🔊 Sound BlasterX AE-5 Plus | 🎤 Shure MV7 USB

Permalänk

Vilken tur då att man "bara" spelar i 1080p! 8 gb grafikminne i 1080p-upplösning lär räcka några år till

Visa signatur

Asus B550 F Gaming, AMD Ryzen 7 5800X3D, Radeon RX 7900 XT (Saphire Nitro+)
32 GB Corsair Vengeance RGB RT @3600 Mhz (cl 18), 2 TB Samsung 980 Pro + 2 TB Samsung 860 Evo.
Skärm: Asus ROG XG27WQ (1440p @165hz)
Övrigt: Nintendo Switch och Xbox series S

Permalänk
Inaktiv

Får en känsla av att AMD inte direkt pushat för att spelet ska använda så lite vram som möjligt 😅

Permalänk
Medlem

Vill man spela på 4k med maxade inställning och 20 fps så behöver man massa vram såklart.

Nu är det inget för mig personligen då jag faktiskt tycker om bildrutor mer än grafik

Känns som ett icke problem.
Är man ute efter spela i detta köper man ju knappast något typ 3070 med låg vram.

Permalänk
Rekordmedlem
Skrivet av IKEA Billy Bokhylla:

Yet again, history repeats itself.

Har varit samma visa, varje jäkla gång. "sPeL kAn ÄnDå InTe AnVäNdA X GB gRaFiKmInNe." Varje gång har dessa personer fått äta sina ord mer eller mindre direkt.

man får ta i ordentligt som när man ändrade mellan IPv4 och v6.

Skrivet av Laggmonstret:

Ja fast varken ett RTX 3090 eller ett 6900 XT är fortfarande bra nog för 4K enligt mig - så länge de inte klarar att leverera 120+ FPS i de flesta spel - så kanske därav vi "klamrar oss fast" vid 1440p? Personligen kommer jag dock vänta med grafikkortsköp tills nästa generation men kommer kliva på en Ultrawide med "bara" 3440x1440p 144Hz. Det blir min nästa sweetspot från 2560x1440p 16:9 AMD's drivrutiner har känts sådär i bra många år, men skulle definitivt ge dem en chans denna generation om jag verkligen kände att jag var tvungen.

Du menar ultralågt för det är ju inga skärmpaneler som görs bredare utan man kapar av de med full upplösning på höjden för att de ska bli ultralåga.
Tycker definitivt extremt mycket mer om snygga spel där bilden för det mesta står stilla så man kan se den i stället för tramsiga slaktarspel så jag ser heller en utveckling mot mer filmlik grafik än fps i dubbel bemärkelse.

Visa signatur

R5 5600G, Asus ROG STRIX X470-F Gaming, WD SN850X 2TB, Seasonic Focus+ Gold 650W, Aerocool Graphite v3, Tittar på en Acer ET430Kbmiippx 43" 4K. Lyssnar på Behringer DCX2496, Truth B3031A, Truth B2092A. Har också oscilloskop, mätmikrofon och colorimeter.

Permalänk
Medlem

I 4k lirar du utan AA.
Och där tjänar du väldigt mycket kräm på.
Ett steg under Max i shadows eller i mitten. Brukar du inte se någon skillnad.
Däremot så kräver din dator vääääääldigt mycket mindre.

Visa signatur

Lightsaber - Black armour - and balls!

Permalänk
Medlem
Skrivet av hakro807:

Om det är något historien visat är det att när väl minnet blivit i minsta laget har beräkningskapaciteten sedan lång tid slagit i taket. Men visst, kör du dina spel i 4K/Ultra och 12 FPS..

Med så mycket historia bakom dej vet du väll att minnet inte nödvändigtvis har med beräkningskraft att göra? Minnet kan användas för att buffra saker, ha flera unika texturer i minnet eller rent av loddar som man swappar mellan. Minnesbandbredden blir först ett problem när det behöver skyfflas tillräckligt stora chunkar på kort tid, exempelvis när man använder större delen av minnet per frame eller går mellan olika delar av banan.

Beräkningarna går åt när man behöver sampla texturerna, men man har ju mipmaps. Om man har ett antal objekt på skärmen med texturer så kommer beräkningarna att ske per pixel, högre upplösning innebär fler beräkningar, likaså MSAA/SSAA. Skärmbuffrarna tar oftast minimalt utrymme. Det man vill är att ha tillgång till exempelvis 4k samt 8k texturer på nära håll, nu varierar det hur spelmotorer streamar texturer men ofta är dessa objekt väldigt närma och skymmer en hel del bakomliggande objekt. Att sampla ett fåtal högupplösta texturer är nödvändigtvis inte långsammare än att rendera flera lågupplösta texturer på avstånd. Man renderar ju alltid samma antal pixlar på skärmen oavsett texturupplösning, dock nu när man går över till 4k så ser man att många spel inte har vad det krävs i texturupplösning för att ge en övertygande bild, 4k samt 8k texturer blir ett krav på objekt nära.

Kanske kommer det flera lodnivåer nu när högre upplösning börjar bli standard, objekt syns väldigt långt ifrån på 4k så även där kan man inte spara in för mycket, och objekten närma skärmen om det sker close-ups (ansikte, kläder eller vapen) lär behöva 8k för att inte uppfattas som suddiga. LOD0 blir mer eller mindre cinematic, sedan får man beräkna pixeldensiteten på skärmen (ihop med avståndet och storleken på skärmen) för att justera resterande loddar.

Permalänk
Medlem

Doom:Eternals lead engine programmer sa att 8GB kommer vara i minsta laget snart och att next-gen spel kommer att kräva mycket VRAM. Det ska bli intressant att se hur det här utvecklar sig.

Permalänk
Medlem

Vram i all ära men kan ett spel se mer "generic" ut? Inte så att jag vill punga ut 6000 spänn eller mer för att kunna lira det där direkt. Om dom inte har ett bättre dragplåster att visa upp blir jag smått orolig. Ser ju ut som ett högupplöst mobilspel med massa effekter typ.

Visa signatur

Gilla min Guide till sweclockers tävlingen! :D : #12510535

Min Sweclockers-låt som aldrig deltog i Jultävlingen. Enjoy! https://www.youtube.com/watch?feature=player_embedded&v=g7gof...

Permalänk
Medlem
Skrivet av CubaCola:

Godfall är inte direkt sådär jättesnyggt (men inte jättefult heller) men ser inte varför det skulle använda 12GB ram.

Hur fungerar detta på PS5 då som bara har 16GB ram totalt?

Det här är det magiska med PS5:ans ssd / io lösning som gör att dom kan strömma data direkt från disk till minne och därför inte behöver cacha data som snart behövs i ram. Tills en liknande lösning finns på PC kommer spelen bli enormt minneshungriga.

Permalänk
Medlem
Skrivet av CubaCola:

Godfall är inte direkt sådär jättesnyggt (men inte jättefult heller) men ser inte varför det skulle använda 12GB ram.

Hur fungerar detta på PS5 då som bara har 16GB ram totalt?

Texturerna är långt mycket bättre än dom flesta spelen, vilket är det som kostar minne. Annars brukar texturer vara det man sparar in på, vilket syns, väldigt frekvent.

Scenen vid 2:47 visar hur långt det är kvar med RT, skuggorna faller inte ens på trappstegen utan en triangel som ligger ovanpå.

Permalänk
Skrivet av hakro807:

Om det är något historien visat är det att när väl minnet blivit i minsta laget har beräkningskapaciteten sedan lång tid slagit i taket. Men visst, kör du dina spel i 4K/Ultra och 12 FPS..

Kan köra alla mina spel i 7680x2160 @75+fps med relativt höga inställningar. Och tro mig 10GB käkar mitt 3090 till frukost. Ligger ofta runt 16GB. I 4K har jag högst varit uppe i 12. Försöker verkligen inte säga att 3090 är värt pengarna, bara att 10GB är för lite på ett 3080.

Visa signatur
Permalänk
Medlem

Detta är förstås bra PR för AMD och deras kommande grafikkort, men Nvidia sitter väl rätt lugnt i båten med välutvecklad DLSS?

Permalänk
Medlem
Skrivet av Levandebild:

Detta är förstås bra PR för AMD och deras kommande grafikkort, men Nvidia sitter väl rätt lugnt i båten med välutvecklad DLSS?

Om du har reglaget på Ultra så väljer spelet de högupplösta texturerna ändå, oavsett om du kör 640x480, 4k med eller utan DLSS. De som inte har minnet för högsta inställningarna får vrida ner ett snäpp, förmodligen märker de inte heller någon större skillnad. Kör man 640x480 så behöver man knappast Ultrainställningar på texturer, kanske medium som bäst.

(flera spel har en VRAM-mätare och varnar om man övertrasserar)

Permalänk
Medlem
Skrivet av Donnerstal:

[...] rätt dålig optimering.

Hade det inte varit sponsrat med AMD så hade jag varit väldigt förvånad, inte lika förvånad nu dock.

Seriöst? Sponsrat och dålig optimering. Är det din första tanke?

Har du bettat pengar på att 3080 10G är marknadens bästa kort i alla kategorier 2020, end of story, inga diskussioner?!

Ge upp nu för sjutton.

Om det ser ut så här nu, med releasetitlar som nyttjar upp till 12GB. Hur tror du att det ser ut om ett eller två år? Att kommande spel nyttjar MINDRE VRAM??

Permalänk
Inaktiv

Tur att amd släpper sina kort snart så de med 3080 kan uppgradera. 😊

Permalänk
Medlem
Skrivet av kotz:

Såg rubriken och tänkte.

Nu blir det mer minne på nvidia korten.
Damage control!!!

Säkert men bara GDDR6 annars blir det för dyrt

Visa signatur

Moderkort: MSI MPG X570 Gaming plus CPU: Ryzen 7 5700X3D
RAM: Crucial Ballistix 16GB DDR4 3600 MHz Kylning: Noctua NH-D15 chromax.black Lagring: 4 x Samsung 840 Pro 500GB
Grafikkort :Sapphire Radeon™ RX 6950 XT PURE NITRO+ Nätaggregat: EVGA SuperNOVA 750 G2
Chassi: Fractal Design Define Vision S2 Blackout Monitor: HP OMEN 27 & Acer XF270HUC
Tangentbord: Corsair Gaming Strafe RGB MX SILENT Mus: SteelSeries Rival 700

Permalänk
Medlem
Skrivet av Dalton Sleeper:

(flera spel har en VRAM-mätare och varnar om man övertrasserar)

Minns doom 3 när man satte på ultra så varnade den att det krävs 512mb vram för att ultra läget ska gå bra utan hackande.

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem

"To all my Ampere friends, it's safe to upgrade now to Navi2"

Permalänk
Medlem
Skrivet av MP-Jan:

Om det ser ut så här nu, men releasetitlar som nyttjar upp till 12GB. Hur tror du att det ser ut om ett eller två år? Att kommande spel nyttjar MINDRE VRAM??

Spel med enorma krav samt kort med lite minne har alltid funnits, det är inte så ovanligt (de flesta köper inte high-end). Spelutvecklarna ser till att spelet rullar fint på alla hårdvaror, sedan får man ju tweaka så det passar sin maskin.

Dock kan jag nog ana att NVidia blir den bidragande faktorn till lägre texturupplösningar. Sitter de allra flesta på 8-10GB så lär ju Ultra hamna där någonstans, möjligen 12GB i vissa titlar där man har sliders till INT_MAX. 4K lär bli upplösningen där det anses värt att köra Ultra, (riktig) 8K ligger nog många år i framtiden för nyare titlar.

Permalänk
Medlem
Skrivet av CubaCola:

Godfall är inte direkt sådär jättesnyggt (men inte jättefult heller) men ser inte varför det skulle använda 12GB ram.

Hur fungerar detta på PS5 då som bara har 16GB ram totalt?

Tanken med den snabba SSDn är ju bland annat att inte behöva lika mycket ram allokerat för att saker kan läsas in dynamiskt, men såklart förklarar inte det tillräckligt. Mest troligt är väl att inte maxxade texturer används på konsolerna.

Märk väl att detta spel var med på AMDs presentation av 6000-serien av en anledning. Kanske är det AMD som bett om detta läge som högsta-nivå?

Permalänk
Medlem
Skrivet av Chris_Kadaver:

Vram i all ära men kan ett spel se mer "generic" ut? Inte så att jag vill punga ut 6000 spänn eller mer för att kunna lira det där direkt. Om dom inte har ett bättre dragplåster att visa upp blir jag smått orolig. Ser ju ut som ett högupplöst mobilspel med massa effekter typ.

Vilken tur att det är gratis vid köp av amd korten 😂

Visa signatur

Min rigg:
Corsair 275R TG, Ryzen 7 3700X, NH-U12S Chromax cooler, ASUS x570 strix-E, Corsair RMx750, Gskill Trident Z Neo 16Gb, RX6800 ref, Nvme Samsung 970 Evo.

Permalänk
Medlem

Många intressanta punkter som berör just detta med för lite VRAM:

Kort över 5000 kr år 2020 borde ha minst 12 gb vram. En annan sak man får tänka på också är att de spel som testats nu är ju spel som redan är 1-2 år gamla. Tänker er spel som utvecklas med PS5 och xbox series X som bas, 8 gb vram har jag svårt att se att det kommer räcka (inte ens för 1080p). Det finns en anledning varför amd lagt på 16 gb vram också, de vill säkra sina konsumenter några år framåt.

Visa signatur

Ryzen 7 5800x, lg 27gl850, rx 7800 xt

Permalänk
Medlem

Hur många spelar i 4K på era pc?

Visa signatur

Moderkort: B550M AORUS PRO , Minne: 32GB 3600Mhz HDD1: Intel 660P M2 1TB, HDD2: Kingston A400 960GB CPU: 5900X, Kylning: NH-D15 black GPU: RTX 4080 VENTUS 3X OC Låda: Define 7 Compact Glass, PSU: RM650i
Mus: G502 Wireless Lightspeed, Tangentbord: Strafe RGB MK.2, Monitor: LC49G95TSSRXEN
Surfplatta: Huawei Mediapad M5, Telefon: Pixel 7 Pro

Permalänk
Medlem
Skrivet av vinylens:

Hur många spelar i 4K på era pc?

Det finns många som spelar på sina TV-apparater med en kontroll. I princip alla TVs som säljs idag är 4K.
1 + 1 = 2

Visa signatur

5800X3D @Kombo Strike 3 / 32GB DR RAM @3800MHz,CL16 / 3090 Turbo @1695MHz,0.750V

Permalänk
Medlem

Det som är mest lustigt i den här tråden är att vissa av er verkar gotta sig åt att folk köpt 3080 och att dom nu inte skulle duga. Jag tror nog Nvidia har koll och löser det där utan dom extra 2GB'n utan att vi märker någon skillnad. Och ja jag tror AMD sett till att spelet skall använda extra mycket för att få ett litet övertag mot Nvidia. Är det något man kan vara rätt säker på så är det att dom här båda företagen kör så mycket fulspel dom bara kan.

Som en parentes kan man ju också fråga sig hur sjutton dom där texturerna skulle kunna ta upp så mycket minne. Var inte direkt imponerande.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem

Använder eller allokera...