Indiana Jones and the Great Circle – stilig grafik och bra flyt

Permalänk
Medlem

Var det inte lite samma visa när Harry Potter släpptes? Nu fungerar 3070 och andra 8gb kort mycket bättre i det spelet. Kan det blir så här också?
Ja, jag ångrar att jag valde nividia…

Visa signatur

Dell S2721DGFA ■ 5800X3D (Noctua NH-U12P) ■ RTX 3070 AORUS Master ■ 16x2 3200 CL16 ■ MSI B450M Mortar Max ■ Samsung EVO 970 1 TB ■ Fractal Design North + Switch OLED

Old: Pentium 4 -> Core 2 Duo E6750 -> i7 2600k -> R7 3700X

Permalänk
Hedersmedlem
Skrivet av Sveklockarn:

Jodå, jag förstår poängen, jag bara påpekar att detta är en (1) speltitel, samt att 3070 snart är ett gammalt skitkort.
Min poäng är att GPU:n kommer vara gammal föråldrad skit långt innan man hamnar i situationen att något större antal speltitlar är ospelbara.

Detta är ett spel, men det är inte direkt det enda. Andra spel som funkar mycket bättre med 16 GB vs 8 GB på i övrigt samma kort är t ex Doom Eternal, Resident Evil 4, Horizon: Forbidden West, Cyberpunk 2077: Phantom Liberty, Ratchet and Clank: Rift Apart (båda funkar, men 16 GB är 33% snabbare).

Jag listade bara spel ovan som funkade dåligt även med PCIe 4.0. T ex Forbidden West som snittar på 98 fps med 16 GB och 44 fps med 8 GB, med stutters också förstås.

Andra spel som tycks gå över 8 GB i 1080p på höga inställningar är Forza Motorsport (10.3 GB Ultra + RT), The Last of Us (9.5 GB Ultra), Avatar (10.7 GB Ultra, 15.6 GB Ultra + FSR Frame Gen), Homeworld 3 (11.9 GB Ultra + RT), Hogwarts Legacy (9.3 GB Ultra), Hellblade 2 (8.7 GB High), Alan Wake 2 (10.3 GB High + RT).
OBS att flera av spelen ovan kan dra mer VRAM på ännu högre inställningar; jag valde inte worst-case.

Jämförelsen med Radeon VII förstår jag inte. Varför skulle man jämföra med ett 16 GB-kort från 5 år sen när AMD säljer 16 GB-kort med likvärdig prestanda som 4060/4060 Ti i dagsläget? Ofta till bättre pris dessutom.
För att inte nämna att NVIDIA själva har 8 GB/16 GB-versioner av vissa kort (precis som 6 GB/12 GB av äldre).

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem

Nu har jag inte spelat på 25+ år, men blir riktigt sugen då jag ser denna titel. Känns dock dyrt att skaffa en speldator för ett endaste spel. Fomo…

Permalänk
Medlem

Tror det här spelet och kommande kommer göra många besvikna över 4060ti korten och datorerna med korten folk köpte på blackfriday.

Permalänk
Medlem
Skrivet av Lussarn:

Troligtvis är ju detta första och enda spelet gamers med 3070 spelar, och då kommer man ju faktiskt fram till din slutsats.

Najs att man sitter på ett 3070 i frugans dator, skall bli intressant att se om detta är lika mycket non-issue som vanligt när det snackas vram, man sänker ett snäpp eller två, ser ingen större skillnad och bara spelar.

Du ser svart på vitt att det inte är ett "non-issue" just nu i alla fall, kanske kommer det lösas med framtida drivrutiner; vet att Shadow of mordor inte gick att köra med max texture på mitt 970 från början (4G amirite?) men att det gick med senare drivrutiner.
Det jag däremot undrar, sett till din post-historik, känner du dig tvungen att försvara Nvidia i alla lägen när någon av deras produkter blir kritiserade?

Samt, tycker du själv att Nvidias Vram-fördelning på 3000-serien var logisk och lyckad?

Visa signatur

CPU: R7 9800X3D | GPU: Asrock 7900XTX Taichi OC | MB: Asus B650E-I| RAM: 2x32 Kingston Fury @6000MHz CL30|Cooling:Noctua NH-D15 G2|PSU: Phanteks AMP GH Platinum 1000W|SSD: Kingston Fury Renegade 2TB + Corsair MP510 4TB |CASE:Streacom DA6 XL Chrome

Permalänk
Medlem
Skrivet av sweisdapro:

Du ser svart på vitt att det inte är ett "non-issue" just nu i alla fall, kanske kommer det lösas med framtida drivrutiner; vet att Shadow of mordor inte gick att köra med max texture på mitt 970 från början (4G amirite?) men att det gick med senare drivrutiner.
Det jag däremot undrar, sett till din post-historik, känner du dig tvungen att försvara Nvidia i alla lägen när någon av deras produkter blir kritiserade?

Samt, tycker du själv att Nvidias Vram-fördelning på 3000-serien var logisk och lyckad?

Du tror att jag vill sitta och försvara Nvidia? Nvidia är på väg att köra ut AMD från GPU-markaden och folk sitter ändå och tycker att AMD gör bra ifrån sig. AMD behöver rycka upp sig något hiskeligt, nu ligger man snart fyra generationer efter på vettig uppskalning. RT är man typ i startgroparna på. Vet inte hur många alternativ till CUDA man startat på. Tror du jag vill att det skall vara så? Spelar ingen roll hur mycket folk här sitter och hejar på AMD, och att Nvidias grejer bara är blaj. I riktiga världen finns det folk som betalar riktiga pengar för GPU och som det ser ut nu vill ingen ha Radeon, lite mer vram räcker helt enkelt inte.

Svaret på din fråga är att Nvidia är snåla med vram men bättre på allt annat, och det trumfar i riktiga världen, spelar ingen roll hur mycket YouTube videos som görs om att 8GB inte går att spela med, det stämmer ändå inte. Om AMD vill vara kvar på gaming GPU marknaden krävs en rejäl skärpning.

Visa signatur

- 5090

Permalänk
Medlem
Skrivet av Lussarn:

Du tror att jag vill sitta och försvara Nvidia? Nvidia är på väg att köra ut AMD från GPU-markaden och folk sitter ändå och tycker att AMD gör bra ifrån sig. AMD behöver rycka upp sig något hiskeligt, nu ligger man snart fyra generationer efter på vettig uppskalning. RT är man typ i startgroparna på. Vet inte hur många alternativ till CUDA man startat på. Tror du jag vill att det skall vara så? Spelar ingen roll hur mycket folk här sitter och hejar på AMD, och att Nvidias grejer bara är blaj. I riktiga världen finns det folk som betalar riktiga pengar för GPU och som det ser ut nu vill ingen ha Radeon, lite mer vram räcker helt enkelt inte.

Det stora problemet är att ingen köper Radeon, även när de gör bra saker, jag är nu inne på mitt andra Radeon-kort (bara precis börjat med 7900XTX), och mitt 6900XT har jag haft (tror jag) längre än mitt 1080Ti, utan några som helst problem.
Tittar vi på titeln som testas här så är det inte heller någon milsvid skillnad i prestanda, i en titel som kräver RT dessutom.
Sen kan det bero på att jag skiljer mig från många "fellow gamers" i att jag tycker att RT i sin nuvarande form är lite 'meh', och jag känner helst inte för att ta i uppskalare med tång om jag inte måste.

Skrivet av Lussarn:

Svaret på din fråga är att Nvidia är snåla med vram men bättre på allt annat, och det trumfar i riktiga världen, spelar ingen roll hur mycket YouTube videos som görs om att 8GB inte går att spela med, det stämmer ändå inte. Om AMD vill vara kvar på gaming GPU marknaden krävs en rejäl skärpning.

Fast nu var det inte att de var snåla jag menade (det hade varit "okej"), utan att de gett mer mängd till kort som är lägre i stacken, än till vissa högre, vilket gör att i vissa titlar ändras deras "ordning" i förhållande till var de "borde" vara.
Det logiska hade varit 8GB till 3060, 10GB till 3070, och 12GB till 3080, eller hur?
Då hade vi inte heller hamnat där vi är nu med 3070 vs 3060

Visa signatur

CPU: R7 9800X3D | GPU: Asrock 7900XTX Taichi OC | MB: Asus B650E-I| RAM: 2x32 Kingston Fury @6000MHz CL30|Cooling:Noctua NH-D15 G2|PSU: Phanteks AMP GH Platinum 1000W|SSD: Kingston Fury Renegade 2TB + Corsair MP510 4TB |CASE:Streacom DA6 XL Chrome

Permalänk
Medlem
Skrivet av Thomas:

Jämförelsen med Radeon VII förstår jag inte. Varför skulle man jämföra med ett 16 GB-kort från 5 år sen

Därför att ett RTX 3070 också är fem år gammalt nästa år. GTA VI är ett exempel på ett AAA-spel där exakt noll insatta personer kommer bli förvånade när det visar sig att ett 3070 ger medioker prestanda. Det snackas i tråden som om att VRAM på något magiskt sätt håller korten aktuella för evig tid, när det är exakt som jag säger, att GPU-prestandan blir irrelevant för nya AAA-spel efter typ fem år t.o.m. på kort med nominellt lite minne.

Jag glömmer att man [teoretiskt] kan kolla åldern på de man diskuterar med, får känslan av flera här att de börjar komma upp i åren och inte inser att fem år sedan inte var "nyligen".

Permalänk
Medlem
Skrivet av Sveklockarn:

Jag skrev ”snart”, samt att man får komma ihåg att kontexten är ”maxa AAA-spel”. Är övertygad om att 3070 kommer tjänstgöra i många år till trots sin minnesbegränsning, men det vore absurt att tro att det kommer vara något att köra höga inställningar med i t.ex. GTA VI, eller hur?

Sen är 50-serien i Q1 2025, några månader bort, tidsmässigt är det två generationer eftersom Nvidia nu i slutändan valde att hålla nästan samma releasetakt som tidigare.
Då hade jag dragit slutsatsen att det var en tidig mjukvaruversion som behöver patchas innan det fungerar som det är tänkt, vilket kanske även borde vara fallet nu?

3070 skulle fortfarande bra nog för nästan maxa spel om dom bara hade gett det 12gb VRAM istället för 8 kolla bara 6700XT som är AMD motsvarande.

Visa signatur

AMD® RYZEN™ 7 9800X3D
Red Devil Ultimate RX 6900 XT 16GB
MSI B650 Gaming Plus WIFI
Crucial Pro OC 32GB DDR5 6400 MHZ
Mobil: Google Pixel 9 PRO

Permalänk
Hedersmedlem
Skrivet av Sveklockarn:

Därför att ett RTX 3070 också är fem år gammalt nästa år. GTA VI är ett exempel på ett AAA-spel där exakt noll insatta personer kommer bli förvånade när det visar sig att ett 3070 ger medioker prestanda. Det snackas i tråden som om att VRAM på något magiskt sätt håller korten aktuella för evig tid, när det är exakt som jag säger, att GPU-prestandan blir irrelevant för nya AAA-spel efter typ fem år t.o.m. på kort med nominellt lite minne.

Men prestandan är väl viktigare att kolla än åldern på kortet ändå?
3070 är ju 40-50% snabbare än Radeon VII.

Jag håller förstås med om att kort med mycket VRAM inte lever för evigt bara för det, men kort med 8 GB VRAM är ju dead-on-arrival om man köper ett i år, eller ännu värre om man köper t ex RTX 5060 med 8 GB VRAM, om det nu blir som det ryktas med minnesmängden där.
Då kan nog ett kort som har 2 år på nacken, i samma prisklass (vid inköp), kunna slå det i t ex GTA VI. T ex ett RTX 4060 Ti 16 GB.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem

Verkar vara som Doom. Ganska lättdrivet. Kör 5120x1440. 9800X3D/4080 och får ut runt 100 fps.

Med tanke på kraven trodde jag på kanske hälften.

Visa signatur

AMD Ryzen 7 9800X3D 5.4Ghz +NH-D15 Chromax
MSI RTX 5080 Gaming Trio OC 3390mhz
Asus ROG Strix X870-F Gaming WIFI
Corsair Dominator Platinum 6200mhz 32GB CL36
Samsung G9 49”/240hz, NZXT H9 Flow, Corsair RM850X ATX 3.1

Permalänk
Medlem

” Texturerna på Indys l

Ser ut som ett lyckat spel på Xbox

Permalänk
Medlem

Finns typ 6 inställbar för OSD, första läget ger bara FPS och det sista täcker 15% av skärmen.

Visa signatur

AMD Ryzen 7 9800X3D 5.4Ghz +NH-D15 Chromax
MSI RTX 5080 Gaming Trio OC 3390mhz
Asus ROG Strix X870-F Gaming WIFI
Corsair Dominator Platinum 6200mhz 32GB CL36
Samsung G9 49”/240hz, NZXT H9 Flow, Corsair RM850X ATX 3.1

Permalänk
Medlem

Nej i 1080p är ni inte begränsade av CPU.
Det ÄR klara signifikanta skillnader mellan resultaten.

Å det ÄR därför de seriösa siterna testar Grafikkort i just 1080p för att inte vara begränsade av CPU.

Å det är precis det en grafikkorts recenssioner handlar om.
Att sen slå bort dem med en floskler om "over head" vad vill ni säga Swec? att ni inte skall testa grafikkort i 1080p?

( välj sida nu ) Antingen testa grafikkort med CPU begränsningar, som det inte var i detta test i 1080p, eller inte.

"I 1080p-upplösning är vi relativt begränsade av processorn vilket leder till att de fyra toppmodellerna från både Nvidia och AMD presterar i stort sett likadant med en viss fördel för lag röd. Gissningsvis har AMD lägre overhead i sina drivrutiner, vilket gör att processorflaskhalsen flyttas något."

@CrispVanDahl @JonasT

Är detta första gången / "spelet" som AMD är snabbare i 1080p än 4090? som inte är ett rimligt konsument kort.. i min humla..

Visa signatur

42? Seven and a half million years and all you can come up with is 42?!
► FD Define R2 | Win11Pro | R7-5800X | PA 120SE | ROG STRIX B550-F GAMING | CMN32GX4M2Z4600C18 | 1080 Ti | AX750 | Asus VG27WQ | HP Z27n |► Realme GT Master |

Permalänk
Medlem
Skrivet av Sveklockarn:

Därför att ett RTX 3070 också är fem år gammalt nästa år. GTA VI är ett exempel på ett AAA-spel där exakt noll insatta personer kommer bli förvånade när det visar sig att ett 3070 ger medioker prestanda. Det snackas i tråden som om att VRAM på något magiskt sätt håller korten aktuella för evig tid, när det är exakt som jag säger, att GPU-prestandan blir irrelevant för nya AAA-spel efter typ fem år t.o.m. på kort med nominellt lite minne.

Jag glömmer att man [teoretiskt] kan kolla åldern på de man diskuterar med, får känslan av flera här att de börjar komma upp i åren och inte inser att fem år sedan inte var "nyligen".

Xbox Series X och PS5 har ju sämre gpu prestanda en ett 3070 så hur hade du tänkt att spelat ska köras på dessa konsoler?
Det ända som som kommer begränsa 3070 i framtiden är det vara har 8gb VRAM och inte prestanda i sig 3070 är fortfarande kraftfullt graffikfort och bättre en vad majoriteten av folk som spelar på pc har sina datorer.

Visa signatur

AMD® RYZEN™ 7 9800X3D
Red Devil Ultimate RX 6900 XT 16GB
MSI B650 Gaming Plus WIFI
Crucial Pro OC 32GB DDR5 6400 MHZ
Mobil: Google Pixel 9 PRO

Permalänk
Medlem

Någon som vet om det går att köra på en
Mac M1?

Eller nyare m-chip? Vill helst undvika x86.

Förtydligande
Permalänk
Medlem
Skrivet av Sysop:

Någon som vet om det går att köra på en
Mac M1?

Eller nyare m-chip? Vill helst undvika x86.

oj.. i en extern docka / låda med thunderbolt menar du?

Visa signatur

42? Seven and a half million years and all you can come up with is 42?!
► FD Define R2 | Win11Pro | R7-5800X | PA 120SE | ROG STRIX B550-F GAMING | CMN32GX4M2Z4600C18 | 1080 Ti | AX750 | Asus VG27WQ | HP Z27n |► Realme GT Master |

Permalänk
Medlem
Skrivet av xfade:

oj.. i en extern docka / låda med thunderbolt menar du?

Va?

Permalänk
Medlem
Skrivet av xfade:

Nej i 1080p är ni inte begränsade av CPU.
Det ÄR klara signifikanta skillnader mellan resultaten.

Å det ÄR därför de seriösa siterna testar Grafikkort i just 1080p för att inte vara begränsade av CPU.

Å det är precis det en grafikkorts recenssioner handlar om.
Att sen slå bort dem med en floskler om "over head" vad vill ni säga Swec? att ni inte skall testa grafikkort i 1080p?

( välj sida nu ) Antingen testa grafikkort med CPU begränsningar, som det inte var i detta test i 1080p, eller inte.

"I 1080p-upplösning är vi relativt begränsade av processorn vilket leder till att de fyra toppmodellerna från både Nvidia och AMD presterar i stort sett likadant med en viss fördel för lag röd. Gissningsvis har AMD lägre overhead i sina drivrutiner, vilket gör att processorflaskhalsen flyttas något."

@CrispVanDahl @JonasT

Är detta första gången / "spelet" som AMD är snabbare i 1080p än 4090? som inte är ett rimligt konsument kort.. i min humla..

va?

Visa signatur

Ryzen 7 5800X3D | RX 7900 XT | OLED G6 G60D

Permalänk
Hedersmedlem
Skrivet av xfade:

Å det ÄR därför de seriösa siterna testar Grafikkort i just 1080p för att inte vara begränsade
av CPU.
Å det är precis det en grafikkorts recenssioner handlar om.

Va? Menar du att CPU begränsar mer i 4K än 1080p?

Precis som de skriver så finns det tydliga lägen där AMD har lägre overhead i sina drivrutiner, och därför presterar bättre i låg upplösning än i hög.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem
Skrivet av xfade:

Nej i 1080p är ni inte begränsade av CPU.
Det ÄR klara signifikanta skillnader mellan resultaten.

Å det ÄR därför de seriösa siterna testar Grafikkort i just 1080p för att inte vara begränsade av CPU.

Å det är precis det en grafikkorts recenssioner handlar om.
Att sen slå bort dem med en floskler om "over head" vad vill ni säga Swec? att ni inte skall testa grafikkort i 1080p?

( välj sida nu ) Antingen testa grafikkort med CPU begränsningar, som det inte var i detta test i 1080p, eller inte.

"I 1080p-upplösning är vi relativt begränsade av processorn vilket leder till att de fyra toppmodellerna från både Nvidia och AMD presterar i stort sett likadant med en viss fördel för lag röd. Gissningsvis har AMD lägre overhead i sina drivrutiner, vilket gör att processorflaskhalsen flyttas något."

@CrispVanDahl @JonasT

Är detta första gången / "spelet" som AMD är snabbare i 1080p än 4090? som inte är ett rimligt konsument kort.. i min humla..

Spel begränsas ofta i låg upplösning som 1080p. Troll kommentar.

Visa signatur

7900xtx och 7800x3d är min setup. Så nu vet ni det om jag kritiserar AMD ibland.

Permalänk
Medlem
Skrivet av Sysop:

Nu har jag inte spelat på 25+ år, men blir riktigt sugen då jag ser denna titel. Känns dock dyrt att skaffa en speldator för ett endaste spel. Fomo…

Känns som ett klockrent scenario för att testa GeForce Now.

Permalänk
Medlem
Skrivet av Chibariku:

Känns som ett klockrent scenario för att testa GeForce Now.

Funka på Mac alltså? Ska kolla på det..! 👌

Permalänk
Medlem
Skrivet av Sysop:

Funka på Mac alltså? Ska kolla på det..! 👌

Funkar till att som har en webbläsare typ men Mac har en dedikerad app också Och det ska funka spela både Xbox och Steam versionen.

https://blogs.nvidia.com/blog/geforce-now-thursday-indiana-jo...

Permalänk
Medlem
Skrivet av Chibariku:

Funkar till att som har en webbläsare typ men Mac har en dedikerad app också Och det ska funka spela både Xbox och Steam versionen.

https://blogs.nvidia.com/blog/geforce-now-thursday-indiana-jo...

Låter smutt, ska kolla in det, är ju betydligt mer prisvärt än att köpa in sig på helt ny hårdvara. 👍

Permalänk
Medlem
Skrivet av person:

Spel begränsas ofta i låg upplösning som 1080p. Troll kommentar.

Begränsas av vad?

samt om så är det bra för oss konsumenter att veta innan vi köper. eller hur?

Visa signatur

42? Seven and a half million years and all you can come up with is 42?!
► FD Define R2 | Win11Pro | R7-5800X | PA 120SE | ROG STRIX B550-F GAMING | CMN32GX4M2Z4600C18 | 1080 Ti | AX750 | Asus VG27WQ | HP Z27n |► Realme GT Master |

Permalänk
Medlem
Skrivet av xfade:

Begränsas av vad?

samt om så är det bra för oss konsumenter att veta innan vi köper. eller hur?

Cpun som i de flesta fallen obviously. Skaffa verktyg så ser du det själv.

Visa signatur

7900xtx och 7800x3d är min setup. Så nu vet ni det om jag kritiserar AMD ibland.

Permalänk
Medlem
Skrivet av person:

Cpun som i de flesta fallen obviously. Skaffa verktyg så ser du det själv.

I de flesta spel ja, i alla... Nej.

Och det spelar väldigt mycket roll på vilken GPU och spel, det finns ett skäl att man köra 720p med 4090p när man kör CPU-tester men när det kommer till mellansegmentet så är 1080p inte gränsen för alla GPUs och spel för när GPU spelar noll roll.

1080p är högst relevant då majoriteten av användare fortfarande använder den upplösningen.

Permalänk
Medlem
Skrivet av Sysop:

Spelet kan inte köras på Mac.
Det behövs emularing och troligen ett externt grafikkort.

Visa signatur

42? Seven and a half million years and all you can come up with is 42?!
► FD Define R2 | Win11Pro | R7-5800X | PA 120SE | ROG STRIX B550-F GAMING | CMN32GX4M2Z4600C18 | 1080 Ti | AX750 | Asus VG27WQ | HP Z27n |► Realme GT Master |

Permalänk
Medlem

Nu räknar jag med att alla som anklagat AMD för brist av DLSS i sponsrade titlar anklagar Nvidia för frånvaron av FSR/XeSS i detta spel. Tragiskt att man inte har med alla uppskalare i spelet från dag 1, klart underkänt för studion på den fronten.