Geforce RTX 4090 kammar hem 500 FPS i Overwatch 2

Permalänk
Medlem

0.023FPS per krona.

Permalänk
Medlem
Skrivet av Pamudas:

Det sorgliga är väl ändå att RTX 4080 12GB vs 16GB hehe...

Det bevisar verkligen att 12GB-modellen i själva verket är 4070.

Visa signatur

Intel i5 12600K | Asus TUF Gaming Z690-Plus D4 | Asus Geforce RTX 3060 Ti | 32 GB DDR4 | Fractal Design North | Corsair iCue Link H100i | Cooler Master V750 Gold i Multi

Permalänk
Medlem
Skrivet av corb06:

Coolt, måste ju snart närma sig ögats maximala uppfattningsförmåga.

Så intressant fråga så jag var tvungen att leta lita. Wikipedia hävdar 13 ms som gräns.

With regard to image recognition, people have been found to recognize a specific image in an unbroken series of different images, each of which lasts as little as 13 milliseconds

https://en.wikipedia.org/wiki/Frame_rate

Permalänk
Medlem
Skrivet av Ibymafayhas:

Så intressant fråga så jag var tvungen att leta lita. Wikipedia hävdar 13 ms som gräns.

With regard to image recognition, people have been found to recognize a specific image in an unbroken series of different images, each of which lasts as little as 13 milliseconds

https://en.wikipedia.org/wiki/Frame_rate

13 ms motsvarar alltså 77 FPS. Intressant hur det nästan sammanfaller med upptäckten att min godtyckliga gräns för när tycker att spel börjar flyta ligger runt 85 FPS.

Permalänk
Medlem
Skrivet av DasIch:

0.023FPS per krona.

Det säger ju en del om den svenska kronan. Jag föreslår att vi går över till FPS som valuta. Den verkar stå bra i kurs.

Permalänk
Medlem
Skrivet av Spawnbadboy:

4080 12gb fortsätter vara ett skämt

Exakt och skiten Borde heta - RTX 4070!

Väntat så länge på att uppgradera mitt 2060S till något från 40X serien likt 4070 eller 4060, typ. Men vågar knappt tänkt på hur svaga och överprisade de (antagligen) tyvärr blir :/

Permalänk
Skrivet av Wenro:

Ja det är väl tufft. Med höga frames och kortet i allmänhet. Men... på riktigt. I vilket spel kan ett 4090 möjligtvis ens behövas?

4090 får bara 60 fps avg i Cyberpunk i 1440p. Star Citizen är ett annat spel där 4090 behövs. MS Flight Simulator i 4K rullar i 50 fps med en 3090 Ti så 4090 kommer vara ett välkommet lyft för det spelet med.

Visa signatur

PC: B550 TOMAHAWK | 5800X3D | Palit 4090 GameRock @2520 MHz, 925 mV | G.Skill Trident Z 2x16GB 3600MHz CL16 | Peerless Assassin | WD Black SN850 1TB | Intel 660P 1TB | Seasonic Prime PX 1300W | Kolink Void X | Corsair iCUE ML120 RGB ELITE x4 | Arctic P12 x2 Kringutrustning: LG OLED55C15LA | Centrum subwoofer | Keychron K2 | Logitech G305 | PS5 DualSense Edge @8000Hz | Xbox trådlöst headset HTPC: Biostar B550MX/E PRO | 3600 @4.05 GHz, 1.22 V | ASUS 1070 Turbo @1822 MHz, 2702 MHz, 943 mV | G.Skill Trident Z 2x16GB 3200MHz CL14 | Dark Rock TF 2 | Crucial P3 1TB | Intel AX200NGW | Cougar GEX 750W | SilverStone GD09 | Finlux 40FLHY127B ROG Zephyrus G14: 4800HS | 1660 Ti Max-Q

Permalänk
Avstängd
Skrivet av NorthLight:

Exakt och skiten Borde heta - RTX 4070!

Väntat så länge på att uppgradera mitt 2060S till något från 40X serien likt 4070 eller 4060, typ. Men vågar knappt tänkt på hur svaga och överprisade de (antagligen) tyvärr blir :/

Tror du blandar ihop det med RTX 4080 16Gb

RTX 4080 12Gb borde heta RTX 4060 med sin 192bit minnesbus

Permalänk
Medlem
Skrivet av Pamudas:

Det sorgliga är väl ändå att RTX 4080 12GB vs 16GB hehe...

Vänta du bara! De kör alla kort under 4090 som 4080. Nästa år lanseras RTX 4080 2GB!

Permalänk
Medlem
Skrivet av Klubba:

Tror du blandar ihop det med RTX 4080 16Gb

RTX 4080 12Gb borde heta RTX 4060 med sin 192bit minnesbus

Och RX6700 borde heta RX6600?

Dvs, pga kraftigt utökad cache så går det inte jämföra minnesbuss mellan olika arkitekturer på det sättet du gör.

Permalänk
Medlem

Hur kan dom nå över 100 fps med ett 3060 i den upplösningen? Är det pga att dom använder en extremt stark CPU?

Permalänk
Viking
Skrivet av Stan Carley:

Hur kan dom nå över 100 fps med ett 3060 i den upplösningen? Är det pga att dom använder en extremt stark CPU?

Det är väl inte så högt i Overwatch?

Visa signatur

RTX 3080 Gaming X Trio | Ryzen 7 5800X | TridentZ Neo 32GB @3600MHz CL16 | Asus X470-F ROG Strix | Lian Li PC-O11 Dynamic Svart | NZXT Kraken Z73 | 9x Phanteks T30 | LG OLED 27GS95QE 240Hz

Permalänk
Avstängd
Skrivet av ipac:

Och RX6700 borde heta RX6600?

Dvs, pga kraftigt utökad cache så går det inte jämföra minnesbuss mellan olika arkitekturer på det sättet du gör.

AMD har aldrig på något sätt varit konsekventa med sina GPU namn, 5700XT ersatte ju VEGA64, och blev sen ersatt av RX6800XT, och sen släppte de nerskalade 6700XT.

Hade de inte varit mer förvirrande om de istället släppte 6700XT 16GB, 6700XT12Gb och senare 6700XT 8GB?

Nvidia däremot har haft 1060 192bit, 1070 256bit, 2060 192bit, 2070 256bit, 3060 192bit, 3070 256 bit och nu bryter de mönstret för att försöka förvirra mindre insatta, och sen släpper de 2 HELT TOTALT OLIKA kort som heter RTX 4080 16GB och RTX 4080 12GB.

Jämfört med deras tidigare releaser borde korten de släpper nu hetat 4080, 4070 och 4060 vilket hade gjort det enklare att se att det handlar om olika kort, och inte bara olika mängd minne. Men kör till då att de höjer alla ett namn för de tycker de presterar tillräckligt bra, då borde det ju vara 4090, 4080 och sen 4070.

Att ha samma beteckning på 2 helt olika kort, och sen nån liten 16GB eller 12GB text på kartongen är ju bara för att medvetet förvirra. Nvidia har tidigare haft relativt logisk namngivning på sina graffen, om man inte tittar på laptop's då där de ju är helt åt helvete

Permalänk
Medlem
Skrivet av källarinvånare:

4090 får bara 60 fps avg i Cyberpunk i 1440p. Star Citizen är ett annat spel där 4090 behövs. MS Flight Simulator i 4K rullar i 50 fps med en 3090 Ti så 4090 kommer vara ett välkommet lyft för det spelet med.

Tyvärr skulle det inte göra någon skillnad i Star Citizen med deras idag begränsade antal trådar för att genomföra arbete. Men det talas om att gen12 och vulkan blir en grej i 4.0, med ett smakprov redan nu i 3.18 som kommer

Visa signatur

Star Citizen ❤

Permalänk
Medlem
Skrivet av Stan Carley:

Hur kan dom nå över 100 fps med ett 3060 i den upplösningen? Är det pga att dom använder en extremt stark CPU?

Detta handlar ju om Overwatch 2.

Visa signatur

Windows 11 Pro | Intel i7 8700 | ASUS Prime Z370-P | Corsair 16GB 3000MHz | ASUS GTX 1080 | Fractal Design Define S | Corsair RM750x | Hyper 212 EVO

Permalänk
Medlem
Skrivet av Klubba:

Tror du blandar ihop det med RTX 4080 16Gb

RTX 4080 12Gb borde heta RTX 4060 med sin 192bit minnesbus

Haha ja kanske det ifall det är så illa!
Ojoj vilken soppa detta!

Permalänk
Medlem
Skrivet av Ibymafayhas:

Så intressant fråga så jag var tvungen att leta lita. Wikipedia hävdar 13 ms som gräns.

With regard to image recognition, people have been found to recognize a specific image in an unbroken series of different images, each of which lasts as little as 13 milliseconds

https://en.wikipedia.org/wiki/Frame_rate

Bara för man kan uppfatta enskilda frames vid ett visst intervall så betyder det inte att man inte kan reagera snabbare o bättre vid högre framerate än så. Dessutom så är det ganka lätt att se specifika frames i form av aliasing vid betydligt högre framerates än 77fps. O för att slippa den typen av aliasingen helt o hållet för nånting som rör sig säg 1000 pixlar i bild under en sekund behövs 1000fps, så att vi skulle vara nära nån slags mänsklig gräns stämmer ju inte alls.

Permalänk
Medlem
Skrivet av NorthLight:

Men vågar knappt tänkt på hur svaga och överprisade de (antagligen) tyvärr blir :/

Jag brukar inte posta sånt här, i egenskap av traditionell Jensenofil, men här är tydligen Nvidias planerade affärsstrategi för konsumentgrafikkorten.

"Our strategy is to reduce the sell-in -- reduce the sell-in this quarter, next quarter to let channel inventory correct. Obviously, we’re off the highs, and the macro condition turned sharply worse. And so, our first strategy is to reduce sell-in in the next couple of quarters to correct channel inventory. We’ve also instituted programs to price position our current products to prepare for next-generation products."

Källa: https://seekingalpha.com/article/4536856-nvidia-corporation-n...

Det kanske inte är någon högoddsare att vi kommer se ett markant prisfall i takt med att lagren av RTX 30-serien tar slut och volymerna på 40-serien sjunker kraftigt efter den första vågen av plånbokskastare, som Nvidia nu sannolikt kommer håva in storkovan ifrån under loppet av ett par veckor/månader.

Permalänk
Medlem
Skrivet av Klubba:

AMD har aldrig på något sätt varit konsekventa med sina GPU namn, 5700XT ersatte ju VEGA64, och blev sen ersatt av RX6800XT, och sen släppte de nerskalade 6700XT.

Hade de inte varit mer förvirrande om de istället släppte 6700XT 16GB, 6700XT12Gb och senare 6700XT 8GB?

Nvidia däremot har haft 1060 192bit, 1070 256bit, 2060 192bit, 2070 256bit, 3060 192bit, 3070 256 bit och nu bryter de mönstret för att försöka förvirra mindre insatta, och sen släpper de 2 HELT TOTALT OLIKA kort som heter RTX 4080 16GB och RTX 4080 12GB.

Jämfört med deras tidigare releaser borde korten de släpper nu hetat 4080, 4070 och 4060 vilket hade gjort det enklare att se att det handlar om olika kort, och inte bara olika mängd minne. Men kör till då att de höjer alla ett namn för de tycker de presterar tillräckligt bra, då borde det ju vara 4090, 4080 och sen 4070.

Att ha samma beteckning på 2 helt olika kort, och sen nån liten 16GB eller 12GB text på kartongen är ju bara för att medvetet förvirra. Nvidia har tidigare haft relativt logisk namngivning på sina graffen, om man inte tittar på laptop's då där de ju är helt åt helvete

Fortfarande. Ditt resonemang bygger felaktigt på att 192 bit buss+litet cache är helt jämförbart med 192 bit buss+stort cache. Det är det inte.

Sen att tilltaget med dubbla 4080 kort är idiotiskt fattar väl alla men att kalla kortet 4060 pga bussbredden är att inte kunna ta till sig halva historien.

5700XT ersattes förövrigt av 6700XT, inget annat. Där 7:an indikerar att ett (RDNA1 resp RDNA2) medium-size chip använts. 6800XT hade ingen föregångare eftersom de aldrig släppte nått RDNA1 big-size chip.

Permalänk

500fps var naturligtvis fantastiskt men nu måste Nvidia spänna bågen inför nästa viktiga milstolpe: 1000fps!

Permalänk
Medlem

Känns lite sus att 4090 presterar såpass galet mycket bättre än 4080 16gb.

4080 16 gb = 4070
4080 12gb = 4060/4060ti?

Visa signatur

MB: Asus Rog B550-F WiFi | CPU: Ryzen 5, 3600
GPU: RTX 4070TiS PNY Verto | Chassi: FD Meshify 2 compact
Ram: G.skill Trident Z, 14-14-14-34, 3200 Mhz, 2x 8gb

Permalänk
Medlem
Skrivet av Sveklockarn:

Jag brukar inte posta sånt här, i egenskap av traditionell Jensenofil, men här är tydligen Nvidias planerade affärsstrategi för konsumentgrafikkorten.

"Our strategy is to reduce the sell-in -- reduce the sell-in this quarter, next quarter to let channel inventory correct. Obviously, we’re off the highs, and the macro condition turned sharply worse. And so, our first strategy is to reduce sell-in in the next couple of quarters to correct channel inventory. We’ve also instituted programs to price position our current products to prepare for next-generation products."

Källa: https://seekingalpha.com/article/4536856-nvidia-corporation-n...

Det kanske inte är någon högoddsare att vi kommer se ett markant prisfall i takt med att lagren av RTX 30-serien tar slut och volymerna på 40-serien sjunker kraftigt efter den första vågen av plånbokskastare, som Nvidia nu sannolikt kommer håva in storkovan ifrån under loppet av ett par veckor/månader.

Vänta bara.
Q4 kvartalsrapport... Efterfrågan är (betydligt) mindre än väntat.

Permalänk
Medlem
Skrivet av draanexle:

Känns lite sus att 4090 presterar såpass galet mycket bättre än 4080 16gb.

4080 16 gb = 4070
4080 12gb = 4060/4060ti?

Historiskt så har 80-kortet oftast nyttjat det näst största chippet i line-upen så 4080 16GB får nog allt sägas vara ett "rättmätigt" 80 kort i det perspektivet. Det är mest priset som är helknäppt.

Att det sen är skillnad upp mot 80Ti och sen ytterligare upp mot 90 känns rätt rimligt. Iaf vettigare än 30-serien där Nvidia gick bort sig totalt och 80 (2 olika 80 t.o.m.), 80Ti och 90 erbjöd snarlik prestanda.

Permalänk
Medlem

Är det bara jag som inte vet om jag skall vara glad eller ledsen? Är snöret jättelångt?

Permalänk
Medlem
Skrivet av Mordekai:

Är det bara jag som inte vet om jag skall vara glad eller ledsen? Är snöret jättelångt?

Varken eller, ryck bara på axlarna, gå vidare i livet och invänta opartiska recensioner.

Visa signatur

Skrivet med hjälp av Better SweClockers
PC: Ryzen 9 5900X | RTX 3080 12GB | G.Skill Trident Z Neo 64GB 3600MHz CL16 | 12TB NVMe SSD - 5TB SATA SSD = total 17TB SSD | Synology DS920+ w/20GB RAM SHR 48TB | Seagate IronWolf 10TB HDD intern HDD
Skärmar: Acer Predator XB323UGX 32" 270Hz 1440p, Asus PG349Q 34" 120Hz 1440p UW, Asus PG279Q 27"
Foto
: Canon 80D & 60D + Canon 17-55/2.8 IS, Canon 10-22, Canon 70-200/2.8L IS II, Canon 100/2.8L IS Macro

Permalänk
Medlem
Skrivet av draanexle:

Känns lite sus att 4090 presterar såpass galet mycket bättre än 4080 16gb.

4080 16 gb = 4070
4080 12gb = 4060/4060ti?

Hur menar du sus?

3090 hade typ 20% mer shaders än 3080
4090 har typ 68% mer shaders än 4080

Det är astronomisk skillnad, nästan ett dubbelt så stort chip om man jämför med förra gen där de körde samma chip

Permalänk
Medlem
Skrivet av draanexle:

Känns lite sus att 4090 presterar såpass galet mycket bättre än 4080 16gb.

4080 16 gb = 4070
4080 12gb = 4060/4060ti?

Tror tyvärr det skulle varit så, men dom ville inte prissätta 4060 och 4070 så högt.

4080 12GB = 4060/4060ti
4080 16GB = 4070

4080TI = 4080
4080TI Superduper = 4080ti

4090 = kanske 4090

Visa signatur

| Z790 Formula | 13900KS | 48GB@8000 | 4090 Strix | Corsair AX1600i | O11 Evo XL | Optimus Waterblocks |
| WD SN850X 1TB | WD SN850X 4TB | Keychron Q6 / G Pro Wireless | LG42C2 | Valve Index | Meta Quest 3 |
| Fostex TH-X00, ModMic Wireless | RME ADI-2 DAC FS | Audeze Maxwell | XBX | PS5 | Switch | Steam Deck |
http://steamcommunity.com/id/Kruxarn

Permalänk
Medlem
Skrivet av medbor:

Hur menar du sus?

3090 hade typ 20% mer shaders än 3080
4090 har typ 68% mer shaders än 4080

Det är astronomisk skillnad, nästan ett dubbelt så stort chip om man jämför med förra gen där de körde samma chip

Ja, det är lite det som är poängen. De skippar några steg emellan och sätter galna priser. Man ser ju många som vill köpa nytt och tänker att lika bra o köpa 4090 då den presterar så oerhört mycket bättre än de andra korten.

Är ju lite skumt när 4090 känns som om den kommer ha bättre prestanda för pengarna jämfört med de andra två.

Sen får man ju såklart vänta och se hur det faktiskt blir efter reviews.

Lite som nedan skriver

Skrivet av Krux:

Tror tyvärr det skulle varit så, men dom ville inte prissätta 4060 och 4070 så högt.

4080 12GB = 4060/4060ti
4080 16GB = 4070

4080TI = 4080
4080TI Superduper = 4080ti

4090 = kanske 4090

Visa signatur

MB: Asus Rog B550-F WiFi | CPU: Ryzen 5, 3600
GPU: RTX 4070TiS PNY Verto | Chassi: FD Meshify 2 compact
Ram: G.skill Trident Z, 14-14-14-34, 3200 Mhz, 2x 8gb

Permalänk
Medlem
Skrivet av draanexle:

Känns lite sus att 4090 presterar såpass galet mycket bättre än 4080 16gb.

4080 16 gb = 4070
4080 12gb = 4060/4060ti?

Grejen med 4090 är att de ökar TDP:n till 450W istället för 350W som 3090 låg på, medan 4080 16GB ligger kvar på samma 320W som 3080. 3090 Ti drar förvisso också 450W, men det beror mest på att Nvidia slängt allt vad energieffektivitet heter i sjön och dragit upp klockfrekvenserna för högt (3090 Ti presterar bara ~8-9% bättre än 3090 med 30% högre TDP).

4090 ligger på ungefär samma klockfrekvenser som de övriga korten i 4000-serien, strömförbrukningen kommer istället från det kraftigt ökade antalet kärnor vilket ger betydligt mer prestanda per watt än att öka klockfrekvenserna. Om man drar av 30% av 4090:s kärnor (d.v.s. samma som ökningen i TDP) så blir skillnaden mellan 4090 och 4080 16GB ungefär lika stor som mellan 3090 och 3080.

Så jag skulle nog säga att 4080 16GB är kortet som ligger rätt till namnmässigt (om än inte prismässigt) medan skillnaden upp till 4090 mer beror på att Nvidia ökat TDP:n än att 4080 skulle vara sämre än det borde.

Permalänk
Avstängd
Skrivet av medbor:

Allt beror på vad man menar

De testade att blinka siluetten av ett flygplan i ett svart rum i mindre än en millisekund och de som testades kunde oftast identifiera modellen, men det är såklart långt från samma sak som att se saker i rörelse

En förändring av ljuset till ögat är ju det som kan trigga en reflex, högre bildfrekvens gör ju att reaktionen kan komma snabbare. Dock oklart om hur stor skillnad det gör med någon millisekund, sen ska skärmen klara att visa bilderna och övrig latens i hela kedjan (inklusive spelmotor och övrig mjukvara)

Tror inte det gör mycket skillnad alls att komma över 200hz ungefär, då börjar andra faktorer vara större faktorer skulle jag tro. Vikten på musen borde vara en större faktor till exempel

Ja just i det experimentet så kommer ju en tillräckligt ljusstark bild att hänga efter i synen, så testpersonerna har nog egentligen rätt så många millisekunder på sig att avgöra vad det kan vara innan den inbrända bilden försvunnit helt.