Battlefield V med ray tracing – redaktionens första intryck

Permalänk
Medlem

Raytracing skulle göra sig mycket bättre i något snyggt singleplayer spel.
I snabba onlineshooters som Battlefield är det ju knappast ögongodiset man vill dra upp på, på bekostnad av snabbhet.

Fast det här är ju också första generationen och raytracing är ju en enormt beräkningsintensiv teknik, så att prestandan skulle bli lite sisådär väl väl fullt väntat.

Visa signatur

Namn : Jesper | Ålder : 45 | In-game namn : iller
Yrke : Matematisk modellerare (finansiell matematik), mjukvaruutvecklare för risksystem.
Utbildning : Doktor i matematik + en del mat-stat, numme och IT-relaterat.

Permalänk
Hjälpsam

Hittade detta i Nvidias forum.

"Update 11/14

Performance Settings in Battlefield V

We recommend in this first release of DXR that “DXR Raytraced Reflections Quality” be set to “Low” due to Battlefield V’s Known Issues when using “Medium”, “High”, and “Ultra” settings. EA, DICE, and NVIDIA will also continue to optimize this implementation and deliver regular updates.

Although preferences will vary, we recommend disabling the following settings from Video-->Basic when DXR is enabled for the best overall experience:

Chromatic Aberration
Film Grain
Vignette
Lens Distortion

The DXR Reflections Quality settings control how many rays are used in the scene, as well as what object surfaces receive those rays. Visual differences between the presets will scale according to the number of objects needing rays. By altering these presets, performance and image quality can be tuned to your taste."
https://forums.geforce.com/default/topic/1080041/geforce-rtx-...

Ingen länk till källan dock.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Skrivet av Ratatosk:

Hittade detta i Nvidias forum.

"Update 11/14

Performance Settings in Battlefield V

We recommend in this first release of DXR that “DXR Raytraced Reflections Quality” be set to “Low” due to Battlefield V’s Known Issues when using “Medium”, “High”, and “Ultra” settings. EA, DICE, and NVIDIA will also continue to optimize this implementation and deliver regular updates.

Although preferences will vary, we recommend disabling the following settings from Video-->Basic when DXR is enabled for the best overall experience:

Chromatic Aberration
Film Grain
Vignette
Lens Distortion

The DXR Reflections Quality settings control how many rays are used in the scene, as well as what object surfaces receive those rays. Visual differences between the presets will scale according to the number of objects needing rays. By altering these presets, performance and image quality can be tuned to your taste."
https://forums.geforce.com/default/topic/1080041/geforce-rtx-...

Ingen länk till källan dock.

Och vad menas med known issues, att flera reflektioner än low är mer än vad monster kortet 2080Ti kan hantera?
Hittade ett annat test och har kollat på flera andra, Tech Power up ligger helt klart närmast sanningen med 49 fps i ultra eller 52 i high i 1440p. Ska bli välldigt intressant när Tombraiders släpper sin rtx funktion då dom kommer ha en hederlig benchmark där det inte skiljer sig var man befiner sig i spelet och om det är dag,kväll eller natt.

Dice fick redan tona ner RTX för att överhuvudtaget kunna köra det och det är endast reflektioner och inte shadows som har rtx i BF V.
Jag är helt klart inte imponerad för vad man får för nästan 14 000 KR och dessutom måste man ha minst en 2700x eller 8700K för att orka "driva" tekniken oavsett vilken model av kort man tar.

Sen blir det även stor skillnad om man mäter i Campaign eller online, finns ett test i 4K i low och han hade 45 fps average i campaign men 30 fps när han spelade online i 4K low. på low settingen är det mkt lite som blir raytraicat
Han hade förövrigt gjort dom inställningarna som du nämner och stängt av:
Chromatic Aberration
Film Grain
Vignette
Lens Distortion

https://youtu.be/MWSKnrEtb4U

Visa signatur

Färdiga projekt The legacy of king Khufu.
https://www.sweclockers.com/galleri/2346-the-legacy-of-king-k...
Noctua ramkylare i aluminium: https://youtu.be/JmzCWlq3FKA
Chassie kylning: https://youtu.be/muxjWN7avwA

Permalänk
Hjälpsam
Skrivet av Tapperswe:

Och vad menas med known issues, att flera reflektioner än low är mer än vad monster kortet 2080Ti kan hantera?
Hittade ett annat test och har kollat på flera andra, Tech Power up ligger helt klart närmast sanningen med 49 fps i ultra eller 52 i high i 1440p. Ska bli välldigt intressant när Tombraiders släpper sin rtx funktion då dom kommer ha en hederlig benchmark där det inte skiljer sig var man befiner sig i spelet och om det är dag,kväll eller natt.

https://youtu.be/MWSKnrEtb4U

Att korten presterar skitkasst med DXR på kanske?
Men riktigt så kan de ju inte skriva.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Tapperswe:

Och vad menas med known issues, att flera reflektioner än low är mer än vad monster kortet 2080Ti kan hantera?
Hittade ett annat test och har kollat på flera andra, Tech Power up ligger helt klart närmast sanningen med 49 fps i ultra eller 52 i high i 1440p. Ska bli välldigt intressant när Tombraiders släpper sin rtx funktion då dom kommer ha en hederlig benchmark där det inte skiljer sig var man befiner sig i spelet och om det är dag,kväll eller natt.

Dice fick redan tona ner RTX för att överhuvudtaget kunna köra det och det är endast reflektioner och inte shadows som har rtx i BF 4.
Jag är helt klart inte imponerad för vad man får för nästan 14 000 KR och dessutom måste man ha minst en 2700x eller 8700K för att orka "driva" tekniken oavsett vilken model av kort man tar.

Sen blir det även stor skillnad om man mäter i Campaign eller online, finns ett test i 4K i low och han hade 45 fps average i campaign men 30 fps när han spelade online i 4K low. på low settingen är det mkt lite som blir raytraicat
Han hade förövrigt gjort dom inställningarna som du nämneroch stängt av:
Chromatic Aberration
Film Grain
Vignette
Lens Distortion

https://youtu.be/MWSKnrEtb4U

Known issues är att medium = high = ultra, dvs i praktiken fanns det vara två inställningar. low och ultra.

Permalänk
Skrivet av mill:

Known issues är att medium = high = ultra, dvs i praktiken fanns det vara två inställningar. low och ultra.

Det är precis vad jag hört också men det var inte det Ratatosk skrev:

We recommend in this first release of DXR that “DXR Raytraced Reflections Quality” be set to “Low” due to Battlefield V’s Known Issues when using “Medium”, “High”, and “Ultra” settings

Visa signatur

Färdiga projekt The legacy of king Khufu.
https://www.sweclockers.com/galleri/2346-the-legacy-of-king-k...
Noctua ramkylare i aluminium: https://youtu.be/JmzCWlq3FKA
Chassie kylning: https://youtu.be/muxjWN7avwA

Permalänk
Medlem

-"It just works" fick vi höra hela tiden.

Visa signatur

Huvudriggen är en Gigabyte Aorus Xtreme | 128gb DDR5 6000 | Ryzen 7950X | 3080Ti
Utöver det är det för många datorer, boxar och servar för att lista :P

Permalänk
Medlem

"Battlefield V med ray tracing – redaktionens reflektioner." hade varit en roligare rubrik.

Visa signatur

Lead 3D Artist, Sweden
Xeon Gold 6246R, 2x Nvidia RTX A5000 24 GB + NVLink, 384 GB ECC RAM

Permalänk
Medlem

Tror inte någon här tänkt på detta ännu men det finns flera scenarior där ray-tracing faktiskt skulle kunna ge bättre prestanda jämfört med raster och shadowmaps, shadowmaps med många nivåer höga upplösningar och många ljuskällor kan snabbt döda ett 2080ti då minnes användningen och beräkningarna snabbt kommer upp i över 4x sämre prestanda och på svagare kort med mindre vram närmast ospelbart om du inte nöjer dig med 1-10 fps så klart, ray-tracing är mycket bättre än shadowmaps eftersom shadowmaps kräver att du projicerar enorma fält i 2.5d, där ray-tracing bara beräknar skuggorna utan att behöva trixa och fuska och använda onödigt mycket kraft.

Permalänk
Medlem

Vore intressant att se ett prestandatest mellan 2700x och 9600K, för att se om antalet kärnor eller single core-prestandan påverkar Ray Tracing-prestandan.

Permalänk
Hjälpsam
Skrivet av CGI:

"Battlefield V med ray tracing – redaktionens reflektioner." hade varit en roligare rubrik.

Tipsa dem, de kanske ändrar.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Benchmaskin 🍞

Vi har testat mer ray tracing! War stories (single player) dödar prestandan helt med DXR aktiverat. https://www.sweclockers.com/test/26605-ray-tracing-i-battlefi...

Permalänk
Skrivet av EntropyQ3:

För oss som är lite äldre har raytracing varit framtiden i 30år.
Så ”FRAMTIDEN”, skulle inte den ha varit för mer än ett decennium sen? Men här står vi, och raytracing, trots hårdvarustöd, är fortfarande inte realistiskt.
Förutom det faktum att de alternativa metoderna har blivit bättre, och att våra hjärnor är ptogrammerade att sortera bort specifikt den information som raytracing är bra på.

Och vad är det för framtid du föreställer dig? När RTX2080Ti lanserades var det ganska precis 10år sedan ATI4870 släpptes, med över en TFLOP! Den hade det en tredjedel av chipytan av 2080Ti, så antalet TFLOPS/mm2 har ökat med en faktor fem de sista 10 åren. Men, kanske du säger, dagens GPUer gör mer arbete per TFLOP! Så låt oss istället jämföra transistorer/mm2 mellan 4870ins TSMC 55nm och nVidias TSMC 12nm. Då finner vi att transistordensiteten har ökat ungefär en faktor sex. På ett decennium.
Och är det någonting jag är beredd att tro på, så är det att de reella litografiska framstegen kommer att gå långsammare framåt nästa decennium än de gjort hittills.

Så gå fram i tiden till 2028/2029.
På en bit mainstreamkisel (Om det inte vid det laget entydigt är någon mobil plattform) på ca 200mm2 kan du pressa in ungefär lika många transistorer som på 2080Ti, eller om vi tror på samma utveckling som under senaste decenniet, 50% fler.
Hur många med teknikintresse sitter och spelar på 1080p skärmar då?

Raytracing kan spela en roll för spel om man finner metoder som är effektivare än dagens shadertekniker. Det kanske man gör. Men den dagen är sannerligen inte idag, och kisellitografin kommer inte till undsättning den här gången. Den tiden är förbi.

Du verkar ha glömt att AI ändrar allt. Det är ett nytt fält, de gamla reglerna gäller ej. Hårdvaran är inte utforskad än. Detta handlar inte om storlek, utan att vi inte vet hur man ska göra AI snabbare på bästa sätt än. Har läst om flera metoder som att t.ex. använda analoga räkningsprocesser för att få snabbare kalkylationer (i nätverk behöver de inte alltid vara exakta, men snabba hjälper).

Sen har Google sina TPUs också, de har ju typ dubblat hastigheten för varje generation (minns inte exakt, kan vara mer).

AI kräver inte samma saker som en vanlig dator, så om man använder det mer så har man ett stort fält som är helt kvar att optimera. Typ som det blir nu med elbilar och batterier. Finns mycket potential.

Permalänk
Medlem
Skrivet av emilakered:

Fast ett sådant konstaterande är ju lika skevt åt andra hållet? Som att säga "ett GTX 1060 är lika bra som ett Vega 64, om 1060-kortet kör Medium och Vega-kortet Ultra". DXR/ray tracing är ju de facto samma sak som att vrida upp kvalitetsreglaget ytterligare en nivå.

Sedan om prestandan är tillräcklig är en helt annan femma, men jämförelserna mot andra kort borde i alla fall vara rimliga.

Kan enbart instämma 100% här. Väl talat!

Jag tycker att priserna från många tillverkare, som tex. Nvidia och Apple, är väl högt i förhållande till tidigare, men det innebär ju inte att man skall köra med jämförelser som är helt skeva. Finns inget rättfärdigande eller vettigt att vinna på det för någon.

Visa signatur

macOS: MacBook Air 13" [M1/16/256GB], MacBook Pro 16" [M2/32/512GB], iOS: iPad Mini [128GB/LTE], iPad Pro 12,9" [M1/512GB/LTE], iPhone SE3 [128GB], Apple Watch Series 6 44mm [LTE], W10: Surface Book 3 15" [Core i7/GTX1660Ti/32/512GB], LG 77" OLED C2 [OLED77C25LB]
The purpose of morality is to teach you, not to suffer and die, but to enjoy yourself and live. --Ayn Rand
Skriv under ett upprop för en grönare energipolitik: https://energiupproret.se/

Permalänk
Medlem
Skrivet av jacozz:

Que?
Jag är fullt medveten om att RT-kärnorna inte är de samma som Tensorkärnorna.
Bägge är hårdvara utöver de "vanliga" Cudakärnorna. Tensorkärnorna kan användas för de-noise och/eller DLSS. RT-kärnor gör just vad dom ska göra, räknar ut strålspår.

Vad är din poäng?

Att det är endast Tensorkärnorna som är främst avsedda för AI, medans RT-kärnorna är främst avsedda för just spel.

Då denna tråden handlar om RT-delen så känns det ibland otydligt när en del tar upp AI-delen i samma andetag (kändes som du alluderade till det i tidigare postning, även om det nu ovan framgår att du har koll på skillnaden). Men vi lämnar det och går till pudelns kärna i debatten:

* Jag tycker personligen att Nivida har fått fram en vettig arkitektur och trevlig serie med chip som är välbalanserade för att användas i många olika sammanhang. Både för underhållning och professionellt.

* Problemet (tycker jag) är, precis som hos Apple, inte tekniskt eller produkterna i sig, utan främst den högra prissättningen.

Visa signatur

macOS: MacBook Air 13" [M1/16/256GB], MacBook Pro 16" [M2/32/512GB], iOS: iPad Mini [128GB/LTE], iPad Pro 12,9" [M1/512GB/LTE], iPhone SE3 [128GB], Apple Watch Series 6 44mm [LTE], W10: Surface Book 3 15" [Core i7/GTX1660Ti/32/512GB], LG 77" OLED C2 [OLED77C25LB]
The purpose of morality is to teach you, not to suffer and die, but to enjoy yourself and live. --Ayn Rand
Skriv under ett upprop för en grönare energipolitik: https://energiupproret.se/

Permalänk
Medlem
Skrivet av mill:

Mkt neggo riktat åt nvidia. Ingen som lägger någon skuld på Dice? De har ju faktiskt bara haft korten en väldigt kort tid. Hur hade prestandan sett ut om spelet från början var designat för RT? Osv osv

Tycker det är helt sjukt att man kan köra RT i realtid, det var inte då längesen en framme tog en timme att rendera.

Skickades från m.sweclockers.com

Jo, du har rätt i mycket/stort ovan!

Jag skulle dock kanske inte kalla det "skuld" för DICE heller. Detta då det är det första spelet, och första versionen av första spelet som stödjer RT.

De är även rätt ärliga själva ärliga och öppna med att detta är helt ny teknik och programkos som inte är färdig, och under utveckling.

Ser helt klart fram emot vad som komma skall (även om jag kanske inte själv investerar i denna generationens grafikkort). Något av det roligaste som lanserats på grafikfronten de senaste åren!

Visa signatur

macOS: MacBook Air 13" [M1/16/256GB], MacBook Pro 16" [M2/32/512GB], iOS: iPad Mini [128GB/LTE], iPad Pro 12,9" [M1/512GB/LTE], iPhone SE3 [128GB], Apple Watch Series 6 44mm [LTE], W10: Surface Book 3 15" [Core i7/GTX1660Ti/32/512GB], LG 77" OLED C2 [OLED77C25LB]
The purpose of morality is to teach you, not to suffer and die, but to enjoy yourself and live. --Ayn Rand
Skriv under ett upprop för en grönare energipolitik: https://energiupproret.se/

Permalänk
Medlem
Skrivet av Paddanx:

Håller med. Det var iaf "spelbart" och en funktion som jag kan tänka mig några vill ha.
Men... när jag säger "några", menar jag folk som spenderat 10kkr+ på en GPU, och som spelar singleplayer, vilket är en väldigt liten marknad.

PC-gaming är i sig en liten nischad marknad (dock en växande sådan). Så allt beror på ens synvinkel och hur man definierar "liten".

Har ingen statistik på hur mycket tid som spelas i single player, och hur mycket som spelas i multiplayer. Kanske är 50/50? Vad vet jag.

Självklart är marknaden för grafikkort som kostar 15 papp klart mindre än den övriga grafikkortsmarknaden. Är nog endast de extrema entusiasterna och PC-gamers som kan tänka att lägga sig så mycket pengar på det.

Men den är inte obefintlig, vilket är poängen.

Vilket visas om inte annat av hyfsat stort intresse i både köptrådar och många diskussionstrådar här på SweC.

Skrivet av Paddanx:

En intressant teknik dock. Det är utan tvekan "någon" nytta av det, men det är lite som "development-kit" av VR just nu...

Medans jag tror att RT kommer att fortsätta öka över tid med både nya speltitlar och kommande generationers grafikchip, så tror jag inte på att VR kommer slå igenom som mainstream på ens ett decennium från nu.

Men vi får väl komma tillbaks till denna tråden om 10 år så får vi se vilken av teknikerna som är vanligast bland spelande.

Visa signatur

macOS: MacBook Air 13" [M1/16/256GB], MacBook Pro 16" [M2/32/512GB], iOS: iPad Mini [128GB/LTE], iPad Pro 12,9" [M1/512GB/LTE], iPhone SE3 [128GB], Apple Watch Series 6 44mm [LTE], W10: Surface Book 3 15" [Core i7/GTX1660Ti/32/512GB], LG 77" OLED C2 [OLED77C25LB]
The purpose of morality is to teach you, not to suffer and die, but to enjoy yourself and live. --Ayn Rand
Skriv under ett upprop för en grönare energipolitik: https://energiupproret.se/

Permalänk
Medlem
Skrivet av fantomsmurfen:

NVidia borde ha släppt både RTX och vanliga GTX varianter av 20X0 serien. Ray tracing funktionen är allt för omogen för att bli standard på alla kort än så länge.

Det är inte säkert att det blivit billigare som vissa tror här.

Att utveckla och producera chip är dyrt, och Nvidia har säkert räknat på att det är totalt sätt billigare med högre volym, än att specialtillverka flera chip i mindre serier.

Kan också vara att detta är något som kommer på sikt (om volymerna motiverar den höga kostnaden för att ta fram fler chip, och bygga/anpassa egna produktionslinor för dessa).

Visa signatur

macOS: MacBook Air 13" [M1/16/256GB], MacBook Pro 16" [M2/32/512GB], iOS: iPad Mini [128GB/LTE], iPad Pro 12,9" [M1/512GB/LTE], iPhone SE3 [128GB], Apple Watch Series 6 44mm [LTE], W10: Surface Book 3 15" [Core i7/GTX1660Ti/32/512GB], LG 77" OLED C2 [OLED77C25LB]
The purpose of morality is to teach you, not to suffer and die, but to enjoy yourself and live. --Ayn Rand
Skriv under ett upprop för en grönare energipolitik: https://energiupproret.se/

Permalänk
Medlem

@martinot Det finns en "citera flera"-knapp. Bara ett vänligt tips.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk

Det lär inte finnas en chans att mellanklass Turing kommer att klara ray tracing om dessa siffror är något att gå på. Nvidia kanske kör vidare på Pascal i mellanklassen?

Visa signatur

Bärbar Speldator: AMD Ryzen 5 5600H I Nvidia RTX 3050 Ti
Xiaomi Poco X3 Pro I Nvidia Shield TV V2 I PS4 I

Permalänk
Medlem

Jag ser mycket hellre en video av resultaten än en introduktionsvideo. Enskilda bilder ger inte samma intryck som en video ger.

Visa signatur

Futureproofing explained
Temp "sensorers" riktiga utseende!
^Är även anledningen till att inte alla program visar samma temperatur på samma hårdvara.
Ryzen 7800x3D | TUF GAMING B650-PLUS | Asus 4070 || 8700k | Aorus gaming k3 | XFX core 650 Bronze | 1070ti | Fractal Design XL R2 |

Permalänk
Medlem
Skrivet av martinot:

PC-gaming är i sig en liten nischad marknad (dock en växande sådan). Så allt beror på ens synvinkel och hur man definierar "liten".

Har ingen statistik på hur mycket tid som spelas i single player, och hur mycket som spelas i multiplayer. Kanske är 50/50? Vad vet jag.

Självklart är marknaden för grafikkort som kostar 15 papp klart mindre än den övriga grafikkortsmarknaden. Är nog endast de extrema entusiasterna och PC-gamers som kan tänka att lägga sig så mycket pengar på det.

Men den är inte obefintlig, vilket är poängen.

Vilket visas om inte annat av hyfsat stort intresse i både köptrådar och många diskussionstrådar här på SweC.

Så vad du säger är:
Delar av en nischad marknad, och bara övre segmentet av detta, där de mest extrema...
Och sen "är den inte obefintlig"... Jo... den är obefintlig. Men vinsten per kort är så hög i ren inkomst, att det lönar sig.

Lustiga är ju man gjorde en undersökning på den mest vanligaste upplösningen på sweclockers, och 1440 är normen. Den är 1080 i typ alla andra tester som är större, utanför "entusiasterna".
Så dina "köp-trådar" är en samling entusiaster... och då en del av dessa är villiga att lägga pengarna.

I det stora hela efter att ha hört folk argumentera "varför" på bla chatt mm, märker man 3 "läger".

1. De som totalt bojkottar det, pga olika anledningar... de ger den inte ens en chans, för de är för dyr eller dum eller "nånting". De vill inte ens se det utvecklas, vilket är synd.

2. De som är så hypade att de svävar bland molnen... de talar om framtiden, och hur fantastiskt tekniken är, och hur den kommer ändra allt, och totalt glömmer bort hur extremt begränsad den är i nuvarande form. Man ser bara vad det är i teorin, och hur underbart det "kan bli"... men glömmer bort teori != praktik.

3. De som försöker titta på det... för vad det är, idag. Det är ett dyrt kort/dyr teknik idag för...
- Att få bara skuggor inom ett begränsat synfält renderat med tekniken. (Typ som VRs begränsade FOV)
- Att RTX delen av kortet flaskar GTX delen enormt hårt oavsett inställning.
- Att de endast renderar fåtal av ljusstrålarna i nån 10-100nivå, när 1000-tals krävs för korrekt bild.
- Pga man inte kan rendera allt med RT, måste man fuska och lappa ihop teknikerna, vilket får saker att se... knäppt ut.

Min poäng är:
Idag är det totalt meningslöst, för alla som inte har 10kkr extra, spelar single player (eller vill spendera multiplayer med att stirra på pölar)...

Men som det är behöver RTX delen av GPUn minst ökas 10-faldigt, för 1/3 av priset, för att det ska vara intressant i stora marknaden. Och nej.. jag överdriver inte. Dubbla synfältet... Dubbla FPS och dubbla antal strålar som spåras... gärna lite mer. Detta blir väldigt snabbt 10X mer krav på hårdvaran.

Först då, kan jag se lite poäng i det, när du kan få ögongodiset, utan att det försämrar det i övrigt.

Skrivet av martinot:

Medans jag tror att RT kommer att fortsätta öka över tid med både nya speltitlar och kommande generationers grafikchip, så tror jag inte på att VR kommer slå igenom som mainstream på ens ett decennium från nu.

Men vi får väl komma tillbaks till denna tråden om 10 år så får vi se vilken av teknikerna som är vanligast bland spelande.

VR kommer imho slå igenom samtidigt som RT... dvs när tekniken blir prisvärd och bra nog för gemene man. VRs största problem nu är faktiskt väldigt lik RT... båda har begränsad FOV de fungerar på, båda har begränsningar i hårdvara, och båda är på tok för dyra för att vara vanliga nog att köpas av "alla".

PSVR säljer rätt bra redan dock... och med tanke på att både MS och Sony verkar jobba på nästa konsol, och VR... känns det inte direkt långsökt. Valve jobbar själv på det med Steam också och eget headset.

RT har bara en utvecklare. Och... de andra sitter och väntar på att tekniken ens ska bli något intressant.

Men visst, vi kollar om 10 år

Permalänk
Medlem

@Paddanx: Håller inte med om att intresset är obefintligt. Det är nischat. Absolut. Men inte obefintligt. Det är tester och intresse inte minst här på SweC ett starkt bevis för.

Gällade RT vs VR och vilket som slått ignom bäst på PC-spelande om 10 år så är jag med på det.

Visa signatur

macOS: MacBook Air 13" [M1/16/256GB], MacBook Pro 16" [M2/32/512GB], iOS: iPad Mini [128GB/LTE], iPad Pro 12,9" [M1/512GB/LTE], iPhone SE3 [128GB], Apple Watch Series 6 44mm [LTE], W10: Surface Book 3 15" [Core i7/GTX1660Ti/32/512GB], LG 77" OLED C2 [OLED77C25LB]
The purpose of morality is to teach you, not to suffer and die, but to enjoy yourself and live. --Ayn Rand
Skriv under ett upprop för en grönare energipolitik: https://energiupproret.se/

Permalänk
Avstängd
Skrivet av dunis90:

Jag är nyfiken på om DX12 utan DXR har fått bättre prestanda än tidigare.

Det har det.

Permalänk
Medlem
Skrivet av martinot:

@Paddanx: Håller inte med om att intresset är obefintligt. Det är nischat. Absolut. Men inte obefintligt. Det är tester och intresse inte minst här på SweC ett starkt bevis för.

Gällade RT vs VR och vilket som slått ignom bäst på PC-spelande om 10 år så är jag med på det.

Enda jag kan säga, är .... jag hoppas på båda.

Jag sitter med VR headset hemma.
Jag sitter på ett AMD kort och vill se mer DX12 spel (vilket RT kräver).

Så Win-Win

Permalänk
Medlem

Tja.. va kommer de säg att de är bara 2080/2080ti som har den funktionen.. jag har ett msi 2070 armor och jag har inte de alternativet med välja DXR on eller off.

Va kommer de sig?

Permalänk
Medlem

@Snowfear: Har du 1. Patchat spelet? 2. Uppdaterat windows? 3. DX12 på?

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem
Skrivet av SCORPIUS:

@Snowfear: Har du 1. Patchat spelet? 2. Uppdaterat windows? 3. DX12 på?

Japp alla 3 sakerna. Även prövat formatera om datorn. Kan skärmen på verka att den inställningen inte finns?

Skickades från m.sweclockers.com

Permalänk

@JonasT Hej! Det hade varit mycket intressant att se hur Raytracing påverkar effekten (W) på 2000-serien. RT-delen är ändå hela 25% av dess die-size.

Visa signatur
Permalänk
Praktikant ✨
Skrivet av IKEA Billy Bokhylla:

@JonasT Hej! Det hade varit mycket intressant att se hur Raytracing påverkar effekten (W) på 2000-serien. RT-delen är ändå hela 25% av dess die-size.

Helt klart intressant uppslag! Får spana på detta vid nästa rejtrejs-session.