Geforce RTX 4090 kammar hem 500 FPS i Overwatch 2

Permalänk
Melding Plague

Geforce RTX 4090 kammar hem 500 FPS i Overwatch 2

I samband med lanseringen av Blizzards Overwatch 2 passar Nvidia på att dela med sig av hur Geforce RTX 4000-serien presterar i det nya spelet.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Det sorgliga är väl ändå att RTX 4080 12GB vs 16GB hehe...

Visa signatur

NZXT H510 Flow MSI B450 Tomahawk MAX
AMD Ryzen 5800X3D RX 7900XTX Kingston Fury 64GB

Permalänk
Medlem

de kunde väl ha haft med ett 3090...
wonder why....

Visa signatur

🖥 i9-13900K | RTX 4090 | Asus ROG Strix Z790-F GAMING | G.Skill 32GB | Seasonic 850W | Acer Predator X34S

Permalänk
Medlem

but....why?

Visa signatur

**ASUS GL502VS (i7-7700HQ, GTX 1070, 16 GB ram, 512 GB M2, 120hz G-sync)**

Permalänk
Medlem

Uppenbart att detta är med DLSS3
(edit: verkar som att tråden inte håller med mig, så det stämmer kanske inte)

Latensen följer inte bildfrekvensen alls

Snabbt som attan ändå, men inte helt okej att jämföra bildfrekvens rakt av när hälften är genererade och medvetet ökad latens är en del av lösningen. Ska bli kul att se FSR3 med kanske ställbar bildfrekvens, genererar kanske konstant 1000 fps oavsett renderade bildrutor (teoretiskt exempel)

Permalänk
Medlem

4080 12gb fortsätter vara ett skämt

Permalänk
Medlem

Att varken 3090 eller 3090 Ti är med, visar att 4080 kommer vara långsammare och sämre helt enkelt.

Sen kommer 7900 XT och smiskar 4090 på fingrarna med 1+ fps, till lägre pris och lägre energiförbrukning.

Visa signatur

Intel i5 12600K | 128 GB DDR4 3600 Mhz
ASUS TUF Z690-PLUS D4 | ASUS TUF VG32VQ 32" 1440p
XFX 6900 XT Merc 319 Black Limited
HP ProLiant DL380p Gen8 | HP MicroServer Gen 8 |
Mikrotik 10 GbE Networking

Permalänk
Moderator
Moderator
Skrivet av medbor:

Uppenbart att detta är med DLSS3

Kanske inte så förvånande men jäkligt fult att de inte anger det om så är fallet.
Speciellt när de gått in på så mycket detaljer i övrigt såsom ned till vilken mus som används..

Visa signatur

*-<|:C-<-<

Nytt namn, samma bismak.

Permalänk
Medlem

Tur då är det äntligen spelbart : o )

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem

Undra hur Coilwhine (Spoltjut) låter på dessa grafikkort vid 500fps.. M

Permalänk
Medlem

Coolt, måste ju snart närma sig ögats maximala uppfattningsförmåga.

Permalänk
Avstängd
Skrivet av corb06:

Coolt, måste ju snart närma sig ögats maximala uppfattningsförmåga.

Bara halvvägs

Permalänk
Medlem
Skrivet av medbor:

Uppenbart att detta är med DLSS3

Latensen följer inte bildfrekvensen alls

Snabbt som attan ändå, men inte helt okej att jämföra bildfrekvens rakt av när hälften är genererade och medvetet ökad latens är en del av lösningen. Ska bli kul att se FSR3 med kanske ställbar bildfrekvens, genererar kanske konstant 1000 fps oavsett renderade bildrutor (teoretiskt exempel)

Nej, Overwatch har inte stöd för DLSS så detta är ren rastariserad prestanda.

Permalänk
Skrivet av medbor:

Uppenbart att detta är med DLSS3

Latensen följer inte bildfrekvensen alls

Snabbt som attan ändå, men inte helt okej att jämföra bildfrekvens rakt av när hälften är genererade och medvetet ökad latens är en del av lösningen. Ska bli kul att se FSR3 med kanske ställbar bildfrekvens, genererar kanske konstant 1000 fps oavsett renderade bildrutor (teoretiskt exempel)

Nja, är väl ganska troligt att rtx 4080 är iaf lite snabbare än rtx 3080 utan DLSS. Så det är nog utan DLSS3.

Permalänk
Medlem
Skrivet av Xyberly:

Nej, Overwatch har inte stöd för DLSS så detta är ren rastariserad prestanda.

Skrivet av Rödskägg d ä:

Nja, är väl ganska troligt att rtx 4080 är iaf lite snabbare än rtx 3080 utan DLSS. Så det är nog utan DLSS3.

Jag har gärna fel, men det jag ser tyder på att det är med DLSS3. Pudlar dock gärna om det framkommer mer information

Permalänk
Medlem
Skrivet av medbor:

Uppenbart att detta är med DLSS3

Latensen följer inte bildfrekvensen alls

Snabbt som attan ändå, men inte helt okej att jämföra bildfrekvens rakt av när hälften är genererade och medvetet ökad latens är en del av lösningen. Ska bli kul att se FSR3 med kanske ställbar bildfrekvens, genererar kanske konstant 1000 fps oavsett renderade bildrutor (teoretiskt exempel)

Jag har iofs inte sett nån DLSS nånstans i mina Ow2-inställningar med mitt RTX-kort, så nä det här handlar faktiskt om ren o skär rasteriseringsprestanda. Är väl inte så konstigt heller att ett 4090 klarar det i 1440p?

Permalänk
Medlem

Tror det finns mer att gå på faktist och jag tror detta är raster och inte DLSS.

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Moderator
Moderator
Skrivet av Nozomi:

Bara halvvägs

Ögat kan dock bara se upp till 10GB VRAM, det vet ju alla.

Visa signatur

*-<|:C-<-<

Nytt namn, samma bismak.

Permalänk
Medlem

Men vem köper ett 4090 för att spela Overwatch...?

Vad klarar 4090 för framerate i Quake 3 Team Arena då?

Permalänk
Medlem
Skrivet av Xyberly:

Nej, Overwatch har inte stöd för DLSS så detta är ren rastariserad prestanda.

Fast det här är ju Overwatch 2 som släpptes igår, oklart om det har stöd för DLSS dock, men det är Nvidia så sannolikt har dom använt DLSS möjligen via en egen patch.

Visa signatur

[Gigabyte X570 Aorus Xtreme rev. 1.0][5950X][G.Skill 32GB (2x16GB) DDR4 3600MHz CL16 Trident Z Neo 16-16-16-36][ASUS GeForce RTX 3090 ROG Strix OC][Samsung 990 PRO M.2 NVMe SSD 2TB, Seagate FireCuda Gaming Hub 16TB][Noctua NH-D15 chromax.black][Corsair AX1600i][Xigmatek Elysium][Samsung S27B970D]

Permalänk
Medlem
Skrivet av corb06:

Coolt, måste ju snart närma sig ögats maximala uppfattningsförmåga.

Allt beror på vad man menar

De testade att blinka siluetten av ett flygplan i ett svart rum i mindre än en millisekund och de som testades kunde oftast identifiera modellen, men det är såklart långt från samma sak som att se saker i rörelse

En förändring av ljuset till ögat är ju det som kan trigga en reflex, högre bildfrekvens gör ju att reaktionen kan komma snabbare. Dock oklart om hur stor skillnad det gör med någon millisekund, sen ska skärmen klara att visa bilderna och övrig latens i hela kedjan (inklusive spelmotor och övrig mjukvara)

Tror inte det gör mycket skillnad alls att komma över 200hz ungefär, då börjar andra faktorer vara större faktorer skulle jag tro. Vikten på musen borde vara en större faktor till exempel

Permalänk
Hedersmedlem

Nice, då kan man rendera menyskärmen medan man väntar i kö i flera timmar snabbare.

Permalänk
Medlem

Ja det är väl tufft. Med höga frames och kortet i allmänhet. Men... på riktigt. I vilket spel kan ett 4090 möjligtvis ens behövas?

Visa signatur

12600KF - NH-D15 - PRIME Z690 - Corsair 32GB - RTX 3070 - 2x SN570 500GB/1TB - RM750 - Meshify 2 C
Logitech G915 TKL - G Pro Wireless - Pro X - Odyssey G7 27"

Better Sweclockers

Permalänk
Medlem

500 fps.. vad bra. Då kan äntligen alla som tycker det rycker och hackar under 450 fps spela det ))))))))

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Quizmästare Gävle 2022

4080 12gb borde varit 4070 det kan vi nog vara överens om!
Gissar på att det hamnar nära 3090 i prestanda i många spel så helt off är det väl inte ändå.
Mest namnet som är fel. Prissättningen kan man ju diskutera förstås men det överlåter jag till andra att borra i.

Jag avvaktar med köpknappen av 4090 tills vi sett vad AMD har till oss lite längre fram i år. Får leva med 3090 en stund till!

Visa signatur
Permalänk
Medlem

DLSS version ska alltså dividerars med FPS'en för att få fram rastariseringslatensen.
D.v.s 4090 får 507/3 = 169 rastarutor.
Medans 3060 får 122/2 = 61st.

Visa signatur

*5600|B350M-A|32GB|A750|GX750W|Core V21|280AIO|1TB+2TB.

AMD Ryzen 5(Zen3) @4891|Asus Prime|Corsair 2x16 RGB PRO 3200C16 @3800C18|Intel Arc LE @2740MHz|Seasonic Focus| Thermaltake mATX kub|Arctic freezer II| NVMe SSD PCIE 3.0x2 Kingston A1000 1500/1000 + 2,5" HDD Toshiba 1TB & Samsung 1TB i RAID 0.

Permalänk
Medlem

4090 pumpar ut dubbelt så många frames som 3080 i detta spel. Det är inte dåligt, om det stämmer. Sen kanske det inte spelar någon roll alls i praktiken då...

Permalänk
AKA AudioBamse
Skrivet av corb06:

Coolt, måste ju snart närma sig ögats maximala uppfattningsförmåga.

Hos en äkta nörd finns inget "maximalt"

Permalänk
Medlem
Skrivet av medbor:

Uppenbart att detta är med DLSS3...

nja,, är väl ganska uppenbart att så inte är fallet om dom är tvungna att be devs låsa upp FPS limit. eller?

Permalänk
Quizmästare Malmö 2022

Perfekt till min 500hz skärm, hehehe