Ray tracing i Battlefield V – vi följer upp redaktionens tester

Permalänk
Melding Plague

Ray tracing i Battlefield V – vi följer upp redaktionens tester

Efter förra veckans testkavalkad av ray tracing ihop med Battlefield V passar Emil och Jonas på att sammanfatta resultaten och sia om teknikens framtid.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Avstängd

Känns skönt att sitta på ett 1080Ti just nu!

Visa signatur

•·.·´¯`·.·•ЩIЯЦZ•·.·´¯`·.·•
Threadripper 1950X - Aorus x399 Gaming 7 - G.Skill Trident Z RGB 3200Mhz 4x8gb - EVGA GeForce GTX 1080 Ti FTW3 - 500gb Samsung 960 evo - Noctua NH-U14S TR4 - EVGA SuperNOVA G2, 1300W - Acer X34A

Permalänk
Medlem

DXR och RTX har såklart en framtid som de flesta andra tekniker men i dagsläget är hårdvaran på tok för klen för att inte tala om den bristande kvalité som kan uppvisas i saker som reflektioner på rörligt vatten där mängden brus gör att det ser ut som myrornas krig (se video nedan), detta pga för få antal strålar/punkter och brusborttagning kan bara trolla bort så mycket även om man döper den till något med AI i namnet...

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Medlem

Summa summarum så är de som nu köpt 20XX-kort betatestare för en ofärdig teknik, och när den väl är mogen måste man förmodligen ändå ha ett 30XX-kort för att det ska flyta på fint, så de som sitter med 10XX sitter rätt jävla gött nu.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem

Enspelarläget War Stories verkar ju vara riktigt tungt.
Ser väldigt "köp mig nu" ut

1920 x 1080 + medium och ray tracing-reglaget till "Low" och allt tuffar på i 60 fps låter även det väldigt lockande.

Men att köpa ett Geforce RTX 2080 Ti för 14 000Kr. Det kommer ej att ske för mig. Eller rättare sagt, never ever jag köper en GPU för så mycket Kr.
Vill ge Ray tracing lite mer kött på benen

Ett begagnat GTX 1070 Eller 1080/TI däremot där kliar det till i köpfingret, men vill gärna ha AMD kort och Freesynk.

Visa signatur

Pc 1--> [AsRock DualSata2][AMD4600+X2][7800GT] [Intel SSD X-25 80GB G2][1TB F3][750GB IDE][4GB XMSCorsiar]Pc 2--> [Asus Crosshair] [AMD 4800+X2] [2st 8800GT i SLI] [RAID 0 2x250GB] [6GB XMSCorsair] [Corsair HX750]Pc 3-->[HP Microserver 12TB]Pc 4--> AsRock P67 Extreme 4,i7 2600K @ 4.0 GHz,830 256GB,16GB 1600MHz, R9 290X Foto [Nikon D7000][70-300/35 1,8/18-55 [Skärmar=24",24",24" Eyefinity]

Permalänk
Medlem

"Framtiden för ray tracing är nog ändå ljus."

Emil slår huvudet på spiken.

Permalänk
Medlem

Körde BF5 idag och det märks att min i5'a flaskhalsar, kniven mot strupen bokstavligt.

Min hårdvara mot 2080 Ti Ray-tracing High ligger nog i samma FPS stadium.

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Medlem

Är framtiden men inte idag..

Permalänk
Medlem

Skulle vara intressant att se hur bra RTX fungerar i spel med lite simplare geometri och effekter, men för dagens AAA-titlar verkar det ju ohållbart i princip med nuvarande hårdvara. Jag som alltid spelar i 4K kan ju totalglömma ray tracing som det ser ut nu.

Visa signatur

Nummer ett: CPU: Ryzen 3800X. GPU: Asus Strix RTX 2080 ti MB: Asus ROG Strix X570 Gaming.RAM: 16GB G.Skill Flare X DDR4 3200Mhz CL14. Kylare: NZXT Kraken X62. PSU: Seasonic Prime Ultra 850W Titanium. Chassi: Phanteks Enthoo Evolv XSkärm: Asus PB287Q (4K),

Bärbara: Acer Aspire V Nitro VN7-591. CPU i7 4710HQ. RAM: 8GB 1600Mhz DDR3. GPU GTX 860M.

Permalänk
Medlem

Personligen tror jag det är för tidigt att döma ut ray tracing helt och hållet för denna serie RTX-kort.

Min ståndpunkt är att fullskalig ray tracing aldrig kommer kunna köras på dessa korten. Men det är inte omöjligt att vissa titlar kommer kunna använda tekniken på ett bättre sätt. Som ni själva sa i videon så använder BF V endast det för reflektioner men det finns andra scenarion också som ni tog upp.

Ser man ray tracing som en teknik som kan växa in och bidra med mer och mer vid varje generation så kan man se denna RTX-serie som ett första av många steg innan tekniken är helt på sin plats.

Är det någon som har koll på hur det fungerar rent tekniskt? Låt säga att du står och tittar rakt fram med ett vattendrag framför dig där naturen på andra sidan speglas i vattnet. Klarar tekniken av att endast spåra strålarna baklänges från de objekt som endast syns i vattnet?

Som jag förstått det spåras ray tracing baklänges där strålarna skickas ut från FOV för att studsa/röra objekt. Om dessa objekt ska reflektera ljus så studsar strålarna vidare för att rita upp den bilden som de berör? Kan man inte direkt undvika de objekt som inte ska reflekteras? T.ex. all vanlig mark?

Kanske är det lätt att implementera ray tracing med hjälp av Direct X. Men om dagens grafikkort inte kan köra det fullskaligt så måste det begränsas till områden i bilden och helt plötsligt har man kanske massor av optimeringar som man som spelutvecklare själv måste bidra med?

Kan ni inte intervjua någon från DICE på detta?

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Medlem

Det jag är nyfiken på är vad detta får för effekter på lite lägre nivå, och hur RTX-kretsarna kompletterar de "vanliga" kretsarna. Om man slår på RTX så torde RTX-kretsarna avlasta de vanliga kretsarna, då dessa inte längre behöver jobba med reflektioner. (i detta fallet) Stämmer det så långt? Eftersom vi vet att 2000-serien är snabbare än 1000 även i gammal vanlig rendering, samt att framerate ca halveras med RTX påslaget, kan man då dra slutsatsen att det är RTX-kretsarna som är flaskhalsen? Eller är RTX-funktioner delvis beroende av de vanliga kretsarna också?

Visa signatur

AMD Ryzen 7 5800X | 32 GB Corsair Vengeance 3200 MHz | ASUS TUF Geforce RTX 3080

Permalänk
Medlem

Kollar man gpu anvåndningen ser man att korten inte ansträngs nämnvärt, jämfört med i standard grafik.
Mao flaskar tensor-cores hela gpun.
Ligger runt 30-40% men knappa 70fps.
Saknas tensokärnor, lite trist när man lagt 14k å det är flaskas så hårt av deras design.
Är jävligt nöjd med mitt 2080ti, men ärligt, hoppet från 1080ti är inte jätteimponerande och det krävdes ett RMAkort imman man fixk styr på skiten. :/

Skickades från m.sweclockers.com

Visa signatur

Studio Artcore Tattoo
[i7 9700k@5.3ghz - MSI OC 2080ti - Vive Pro - SRD rig - NLv3 - Fanatec CSW2.5]

Permalänk
Medlem
Skrivet av tellus82:

DXR och RTX har såklart en framtid som de flesta andra tekniker men i dagsläget är hårdvaran på tok för klen för att inte tala om den bristande kvalité som kan uppvisas i saker som reflektioner på rörligt vatten där mängden brus gör att det ser ut som myrornas krig (se video nedan), detta pga för få antal strålar/punkter och brusborttagning kan bara trolla bort så mycket även om man döper den till något med AI i namnet...

Tekniken är ny så, ja, den kommer ha en del problem. Och nej, de har inte bara lagt till AI i namnet. Grafikkorten har ju kärnor i processorn med precis de antalen transistorer som behövs för att göra de vektormultipliceringar som neuronätet behöver. Det neuronät de använder för att "brusreducera" fram var resten av strålspårningen hade träffat om man hade haft tid att räkna ut samtliga. Hela nätets beräkningar blir därför klara så snabbt det går, detta eftersom de fysiskt har byggt kärnan att matcha neruronätets behov.
Vad mer kräver du för att säga att det AI bakom det och inte bara "AI"?

Permalänk
Snusfri

I dagens läge är Ray-tracing inte gjort för generic run'n'gun spel som BF och liknande så att helt förkasta en ny teknik bara för att den inte är speciellt bra implementerad i ett spel är lite tråkigt.

Det skall bli riktigt intressant att se hur det kommer att bli i spel där man faktiskt ser och njuter av miljöerna som Tomb Raider och Hitman 2.

Visa signatur

WS: i9 13900K - 128GB RAM - 6.5TB SSD - RTX 3090 24GB - LG C2 42" - W11 Pro
LAPTOP 1: Lenovo Gaming 3 - 8GB RAM - 512GB SSD - GTX 1650
LAPTOP 2: Acer Swift 3 - 8GB RAM - 512GB SSD
SERVER: i5 10400F - 64GB RAM - 44TB HDD
NALLE: Pixel 7 Pro

Permalänk
Medlem

En repris

Visa signatur

[AMD Ryzen 9 3900X] [ASUS GeForce RTX 2080 Ti] [LG OLED 55 C9 som skärm] [Samsung HW-Q96R till ljudet]

Permalänk
Medlem

Ray Tracing är förlegat. Jag köpte PTX5080Ti förra veckan. Battlefield 9 med Path Tracing är sjukt snyggt!

Visa signatur

PG279Q | 6XX | X-Fi Titanium HD | RTX 2080 | 5800X3D
G.Skill 3200 CL14 | B450-F | 970 EVO | Seasonic 750W | Fractal R5

Permalänk
Medlem
Skrivet av necris:

Tekniken är ny så, ja, den kommer ha en del problem. Och nej, de har inte bara lagt till AI i namnet. Grafikkorten har ju kärnor i processorn med precis de antalen transistorer som behövs för att göra de vektormultipliceringar som neuronätet behöver. Det neuronät de använder för att "brusreducera" fram var resten av strålspårningen hade träffat om man hade haft tid att räkna ut samtliga. Hela nätets beräkningar blir därför klara så snabbt det går, detta eftersom de fysiskt har byggt kärnan att matcha neruronätets behov.
Vad mer kräver du för att säga att det AI bakom det och inte bara "AI"?

Bara för att något använder en viss typ av beräkning så är det inte en AI, nVidia använder en algoritm baserad uträkning, en algoritm som sedan tensor kärnor är riktigt bra på vilket gör att prestandan för detta steg ökat markant på kort med just tensor kärnor kontra de utan. Du kan dock göra exakt samma sak på kort utan tensor kärnor.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Medlem

Att RTX-2000-korten är för svaga för Raytracing har varit tydligt ända sedan lanseringen.
(Framtidens teknik, men hårdvaran är inte redo för den - än.)

Kan vi få veta mer om DLSS nu istället? Känns som att det kommer vara det mest intressanta med den här generationen.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Medlem
Skrivet av MinscS2:

Att RTX-2000-korten är för svaga för Raytracing har varit tydligt ända sedan lanseringen.
(Framtidens teknik, men hårdvaran är inte redo för den - än.)

Kan vi få veta mer om DLSS nu istället? Känns som att det kommer vara det mest intressanta med den här generationen.

DLSS känns klart mer intressant som något vettigt som faktiskt kan tillföra något för current gen HW, sen finns också andra nya fräna saker som adaptive shading som mer eller mindre analyserar vilka shaders som kan sänkas i kvalité eller till och med tas bort utan att påverka bildkvalité. Än verkar det dock vara lite tunnsått på tester och eller implementeringar.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Medlem

Känns mycket som Nvidia från början siktade in sig på AI och så kom de på att de kunde använda samma grejer för att kränga dyra kort till konsumenter, med Raytrasing som säljargument.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av tellus82:

Bara för att något använder en viss typ av beräkning så är det inte en AI, nVidia använder en algoritm baserad uträkning, en algoritm som sedan tensor kärnor är riktigt bra på vilket gör att prestandan för detta steg ökat markant på kort med just tensor kärnor kontra de utan. Du kan dock göra exakt samma sak på kort utan tensor kärnor.

Beräkningen, som är summan av neuronätets beräkningar, har utvecklats som alla andra neuronät. Sättet det utvecklas på och lär sig är AI. Neuronät är AI. Ja, jag tänkte skriva det i mitt förra svar med, man behöver inte ens grafikkort. Sedan åttiotalet har man gjort dessa uträkningar i processorn, och jag har alltid använt processorn. Om inte träningen eller hastigheten spelar någon egentlig roll så kan man lika gärna köra varje enskilt neurons beräkningar för sig, och sedan ta nästa, och nästa och nästa.

Neuronätens genombrott kom ju dock när man insåg att det handlar om vektormultiplikation och att grafikkort är fantastiska på det.

Detta, det senaste genombrottet är ju bara, som jag sa, att man har en fysisk enhet som faktiskt "fysiskt" tar emot en beräkning med rätt "storlek" i alla dimensioner och på så sätt gör hela serien av serier av beräkningar i ett svep.

Mina neuronät summerar tusentals tal tusentals gånger. Smartare metoder gör en serie vektormultiplikationer och summerar resultaten från dem. Nvidia gör en enda uträkning. Den uträkningen är samma uträkning som alla neuronen i neuronätet skulle ha gjort, och den är därför AI.

Självklart är neuronät endast en algoritm. En algoritm med en process som utvecklar den. Precis som evolution. Precis som ditt medvetande. Det är inte mindre AI för det.

Permalänk

Jonas mic låter lite distad i detta klippet.

Visa signatur

Ryzen 2700x, Nvidia 2080, 32gb 3200CL14 B-Die, 970 Evo
"Limbo" burk: I52500k, Nvidia 560 ti, 16gb Ram.
Server: FSC PI 2664. Quad core, 4gb minne, lite hårddiskar och en hel del damm.

Permalänk
Medlem
Skrivet av necris:

Beräkningen, som är summan av neuronätets beräkningar, har utvecklats som alla andra neuronät. Sättet det utvecklas på och lär sig är AI. Neuronät är AI. Ja, jag tänkte skriva det i mitt förra svar med, man behöver inte ens grafikkort. Sedan åttiotalet har man gjort dessa uträkningar i processorn, och jag har alltid använt processorn. Om inte träningen eller hastigheten spelar någon egentlig roll så kan man lika gärna köra varje enskilt neurons beräkningar för sig, och sedan ta nästa, och nästa och nästa.

Neuronätens genombrott kom ju dock när man insåg att det handlar om vektormultiplikation och att grafikkort är fantastiska på det.

Detta, det senaste genombrottet är ju bara, som jag sa, att man har en fysisk enhet som faktiskt "fysiskt" tar emot en beräkning med rätt "storlek" i alla dimensioner och på så sätt gör hela serien av serier av beräkningar i ett svep.

Mina neuronät summerar tusentals tal tusentals gånger. Smartare metoder gör en serie vektormultiplikationer och summerar resultaten från dem. Nvidia gör en enda uträkning. Den uträkningen är samma uträkning som alla neuronen i neuronätet skulle ha gjort, och den är därför AI.

Självklart är neuronät endast en algoritm. En algoritm med en process som utvecklar den. Precis som evolution. Precis som ditt medvetande. Det är inte mindre AI för det.

Visst, kalla det AI om du vill men om det enda som krävs att få kalla något för ai är att det gör fler beräkningar i ett svep istället för separat så anser jag personligen att uttrycket AI har devalverats något jävulskt.

Skickades från m.sweclockers.com

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Medlem
Skrivet av Fikabulle:

Känns mycket som Nvidia från början siktade in sig på AI och så kom de på att de kunde använda samma grejer för att kränga dyra kort till konsumenter, med Raytrasing som säljargument.

Fast AI-delen och ray tracing-delen av Turing-kretsen är helt olika delar. Turing har tensor-kärnor som används för deep learning, d.v.s. en sorts AI, vilket utnyttjas av t.ex. DLSS. Sen finns även ray tracing-kärnor som är helt dedikerade till just ray tracing. Sweclockers har en genomgång av det här.

Permalänk
Medlem

Lite som VR. Häftigt, för tidigt, för tungdrivet och för dyrt.

Visa signatur

| Fractal Design Define Mini C | MSI Z490M MPG GAMING EDGE | Corsair RM750X 750W v2 | Intel Core i5 10600K |
|GIGABYTE RTX 3070 AORUS Master |Corsair 32GB DDR4 3200MHz CL16 |
| Asus Strix Raid DLX | Acer 27" Predator XB271HK G-Sync 4K IPS | Tobii 4C |
| LG OLED55B6V | nVidia Shield V2 |

Permalänk
Medlem

Strålsprut? Nähä, inte det.. En tredje sak som DICE nämnde i samband med presentationen av tekniken, var att sänka upplösningen på själva raytracingdelen för att få upp prestandan. Någon som vet något mer om det?

Visa signatur

Vituð ér enn, eða hvað?

Permalänk
Datavetare
Skrivet av FredrikMH:

Personligen tror jag det är för tidigt att döma ut ray tracing helt och hållet för denna serie RTX-kort.

Läser man CPU-testerna kan man ibland få känslan att halva SweC hålla på med rendering av olika former. Var tog alla dessa personer vägen givet att även RTX 2070 får den snabbaste HEDT CPU att framstå som en miniräknare när det kommer till just ray-tracing?(Realistiskt är det mindre än en på tusen av SweC medlemmar som faktiskt håller på med rendering, så förstår helt perspektivet folk har: DXR spel är i praktiken det enda som har en bredare relevans).

Skrivet av FredrikMH:

Är det någon som har koll på hur det fungerar rent tekniskt? Låt säga att du står och tittar rakt fram med ett vattendrag framför dig där naturen på andra sidan speglas i vattnet. Klarar tekniken av att endast spåra strålarna baklänges från de objekt som endast syns i vattnet?

Väldigt förenklat består processen i följande steg

  • en shader skapar strålar, t.ex. initialt en stråle från "kameran" genom varje pixel på din skärm

  • RT-kärnorna följer strålarna för att hitta första objekt som varje stråle träffar

  • träffas ett objekt körs en shader som avgör saker som: är det en transparent yta, ska strålen reflekteras (i så fall hur många strålar ska skickas ut, etc)

  • träffas inget objekt när strålen färdas en specificerad maxlängd anropas en shader som hanterar just detta fall (miss-shader)

  • om objekt har träffats körs i stället en shader som ska räkna vilken totaleffekten blir på den stråle som initialt skickas från kameran, d.v.s. den man faktiskt "ser"

D.v.s. processen är ett tätt samarbete mellan RT-kärnor (som följer strålar och för att hitta de objekt strålarna kolliderar med) och SMs (som beräknar vilken effekt varje träffad yta ska ge).

Tekniken i sig är "fulländad" i det att tillskott från exakt alla objekt som finns i spelvärlden skulle kunna beaktas. I praktiken måste man göra förenklingar om det ska bli något som likar realtid. Exakt vad man måste beräkna och vad man kan utelämna är vad spelutvecklarna nu måste lära sig, utfallet av detta är kritiskt för om dagens Turing-kort kommer kunna använda ray-tracing i spel eller ej.

Skrivet av FredrikMH:

Som jag förstått det spåras ray tracing baklänges där strålarna skickas ut från FOV för att studsa/röra objekt. Om dessa objekt ska reflektera ljus så studsar strålarna vidare för att rita upp den bilden som de berör? Kan man inte direkt undvika de objekt som inte ska reflekteras? T.ex. all vanlig mark?

Icke-reflekterande ytor blir ju billigare då deras resultat kan beräknas utan att nya strålar behöver skickas ut.

Det jag undrar här är om man verkligen måste följa alla strålar från kameran i separata ray-tracing pass. Kan missförstått något här, men så verkar de exempel jag tittat på fungera och DXR verkar mycket vara designad runt detta.

Känns som då man ändå utför rastrering kommer man som bieffekt av detta ändå räkna ut vilken den yta som är närmast kameran varje stråle träffar. Tror problemet här är att det inte är praktiken möjligt att ladda alla relevanta resurser för att utföra rastering samtidigt som ray-tracing, man nämner flera gånger att ray-tracing äter mer resurser i kortet då man måste ha shaders för _alla_ olika typer av material aktiva samtidigt då man inte vet vilken yta en stråle träffar härnäst.

En vanlig optimering är annars att man rasterar saker baserat på deras egenskaper, ytor som delar texturer, materialegenskaper etc körs annars för sig, följt av byte av sådant för att rastrerar nästa uppsättning ytor. Tester verkar också peka på att t.ex. mängden VRAM som krävs är väsentligt högre med RTX-on, vilket nog är väntat.

Skrivet av FredrikMH:

Kanske är det lätt att implementera ray tracing med hjälp av Direct X. Men om dagens grafikkort inte kan köra det fullskaligt så måste det begränsas till områden i bilden och helt plötsligt har man kanske massor av optimeringar som man som spelutvecklare själv måste bidra med?

Känns inte som man kan dra något gigantiska växlar på BFV. DXR verkar rätt mycket påtryckt i efterhand.

Som jag förstår det använder man överhuvudtaget inte Tensor-kärnor för "denoising", det är ju problematiskt ur i alla fall två aspekter.

Dels lastar man SMs än mer då man utför detta med post-processing shaders, SMs är ju under hårt tryck då den används för rastering och även för ray-tracing (RT-cores hittar "bara" ytorna, vad som ska hända är shaders).

Dels så skippar man ~9/10 av kretsens beräkningskraft genom att inte använda Tensor-kärnor. Inte på långa vägar en perfekt jämförelse då Tensor-kärnor utför en väldigt specifik uppgift. Men i detta fall är det ju en uppgift Tensor-kärnorna faktiskt kan utföra, i de lägena är de ungefär en tiopotens snabbare än aggregerade kraften hos SMs!

Man använder specifikt inte DLSS. En av huvudpunkterna med DLSS är ju att ray-tracing då kan utföras med lägre upplösning jämfört med vad man renderar till. Krävs bara halva beräkningskraften att köra ray-tracing i 1366x768 i stället för 1920x1080, man får ett rätt mycket trevligare resultat om ljussättning/skuggor/reflektioner är lite "mjuka" men har relativt lite "brus" jämfört med det omvända.

I princip alla v1.0 av saker har brister, så lär fallet vara även med RTX 2000-serien. Men vi lär inte ha någon bra bild över hur pass bra dessa kort faktiskt kan hantera ray-tracing i spel de närmaste 12-24 månaderna, det är trots allt mer än tre år sedan DX12 släpptes och spelmotorerna måste ju först få vettigt stöd för DX12 innan vettig DXR ens är något man kan börja jobba på.

Skrivet av FredrikMH:

Kan ni inte intervjua någon från DICE på detta?

Håller med, det vore väldigt spännande läsning!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Läser man CPU-testerna kan man ibland få känslan att halva SweC hålla på med rendering av olika former. Var tog alla dessa personer vägen givet att även RTX 2070 får den snabbaste HEDT CPU att framstå som en miniräknare när det kommer till just ray-tracing?(Realistiskt är det mindre än en på tusen av SweC medlemmar som faktiskt håller på med rendering, så förstår helt perspektivet folk har: DXR spel är i praktiken det enda som har en bredare relevans).

Väldigt förenklat består processen i följande steg

  • en shader skapar strålar, t.ex. initialt en stråle från "kameran" genom varje pixel på din skärm

  • RT-kärnorna följer strålarna för att hitta första objekt som varje stråle träffar

  • träffas ett objekt körs en shader som avgör saker som: är det en transparent yta, ska strålen reflekteras (i så fall hur många strålar ska skickas ut, etc)

  • träffas inget objekt när strålen färdas en specificerad maxlängd anropas en shader som hanterar just detta fall (miss-shader)

  • om objekt har träffats körs i stället en shader som ska räkna vilken totaleffekten blir på den stråle som initialt skickas från kameran, d.v.s. den man faktiskt "ser"

D.v.s. processen är ett tätt samarbete mellan RT-kärnor (som följer strålar och för att hitta de objekt strålarna kolliderar med) och SMs (som beräknar vilken effekt varje träffad yta ska ge).

Tekniken i sig är "fulländad" i det att tillskott från exakt alla objekt som finns i spelvärlden skulle kunna beaktas. I praktiken måste man göra förenklingar om det ska bli något som likar realtid. Exakt vad man måste beräkna och vad man kan utelämna är vad spelutvecklarna nu måste lära sig, utfallet av detta är kritiskt för om dagens Turing-kort kommer kunna använda ray-tracing i spel eller ej.

Icke-reflekterande ytor blir ju billigare då deras resultat kan beräknas utan att nya strålar behöver skickas ut.

Det jag undrar här är om man verkligen måste följa alla strålar från kameran i separata ray-tracing pass. Kan missförstått något här, men så verkar de exempel jag tittat på fungera och DXR verkar mycket vara designad runt detta.

Känns som då man ändå utför rastrering kommer man som bieffekt av detta ändå räkna ut vilken den yta som är närmast kameran varje stråle träffar. Tror problemet här är att det inte är praktiken möjligt att ladda alla relevanta resurser för att utföra rastering samtidigt som ray-tracing, man nämner flera gånger att ray-tracing äter mer resurser i kortet då man måste ha shaders för _alla_ olika typer av material aktiva samtidigt då man inte vet vilken yta en stråle träffar härnäst.

En vanlig optimering är annars att man rasterar saker baserat på deras egenskaper, ytor som delar texturer, materialegenskaper etc körs annars för sig, följt av byte av sådant för att rastrerar nästa uppsättning ytor. Tester verkar också peka på att t.ex. mängden VRAM som krävs är väsentligt högre med RTX-on, vilket nog är väntat.

Känns inte som man kan dra något gigantiska växlar på BFV. DXR verkar rätt mycket påtryckt i efterhand.

Som jag förstår det använder man överhuvudtaget inte Tensor-kärnor för "denoising", det är ju problematiskt ur i alla fall två aspekter.

Dels lastar man SMs än mer då man utför detta med post-processing shaders, SMs är ju under hårt tryck då den används för rastering och även för ray-tracing (RT-cores hittar "bara" ytorna, vad som ska hända är shaders).

Dels så skippar man ~9/10 av kretsens beräkningskraft genom att inte använda Tensor-kärnor. Inte på långa vägar en perfekt jämförelse då Tensor-kärnor utför en väldigt specifik uppgift. Men i detta fall är det ju en uppgift Tensor-kärnorna faktiskt kan utföra, i de lägena är de ungefär en tiopotens snabbare än aggregerade kraften hos SMs!

Man använder specifikt inte DLSS. En av huvudpunkterna med DLSS är ju att ray-tracing då kan utföras med lägre upplösning jämfört med vad man renderar till. Krävs bara halva beräkningskraften att köra ray-tracing i 1366x768 i stället för 1920x1080, man får ett rätt mycket trevligare resultat om ljussättning/skuggor/reflektioner är lite "mjuka" men har relativt lite "brus" jämfört med det omvända.

I princip alla v1.0 av saker har brister, så lär fallet vara även med RTX 2000-serien. Men vi lär inte ha någon bra bild över hur pass bra dessa kort faktiskt kan hantera ray-tracing i spel de närmaste 12-24 månaderna, det är trots allt mer än tre år sedan DX12 släpptes och spelmotorerna måste ju först få vettigt stöd för DX12 innan vettig DXR ens är något man kan börja jobba på.

Håller med, det vore väldigt spännande läsning!

Just denoising sägs inte shaders stå för alls, detta kan dessutom ses live på allmän GPU belastning som sjunker som en sten när fps droppar pga hård DXR/RTX last, det som finns kvar då är just tensor eller RT kärnor, om de använder de få RT kärnorna till att också köra denoise passen kan det förklara den idag inte helt optimala prestandan.

Tror det är lite för mycket gissningar just nu om vad som egentligen gör vad, att nVidia inte skulle använda tensor till denoising låter en aning osannolikt och kontraproduktivt.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Datavetare
Skrivet av tellus82:

Just denoising sägs inte shaders stå för alls, detta kan dessutom ses live på allmän GPU belastning som sjunker som en sten när fps droppar pga hård DXR/RTX last, det som finns kvar då är just tensor eller RT kärnor, om de använder de få RT kärnorna till att också köra denoise passen kan det förklara den idag inte helt optimala prestandan.

Tror det är lite för mycket gissningar just nu om vad som egentligen gör vad, att nVidia inte skulle använda tensor till denoising låter en aning osannolikt och kontraproduktivt.

Tog den informationen från följande video där informationen kom direkt från Dice (ca 9:30 in i videon)

"To clean up ray-tracing noise, Dice uses custom temporal filter based upon their TAA (d.v.s. en shader i SMs) and a separate spatial filter (som också lär vara en shader i SMs) after that to make sure reflections never break down and turn into the grainy unfiltered results."

Baserar man brusreducering på TAA kommer man få problem med ytor som flyttar sig relativt mycket mellan scener. Är ju exakt det man ser i videon du länkade ovan.

"Denoise" är inte något man bara slår på, den finessen är överhuvudtaget inte del av DXR. Output från DXR kommer vara den ofiltrerade resultatet, är upp till varje spelmotor att göra lämplig filtering (och vad som är lämpligt varierar ju beroende på typ av spel samt vad man använder ray-tracing till).

Här är ett exempel på en trivial "closest-hit-shader", output här är färgen på pixel men det är "application defined" vad exakt output är. Dock är det 1-till-1 korrelation mellan strålar och utdata från "closest-hit-shader" samt "miss-shader" som är slutpunkten för varje stråle.

Nvidia verkar ha färdig kod för CUDA för att använda Tensor-kärnor för brusreducering

men letar man fram motsvarande i GameWorks så verkar det ännu inte klart utan man uppmanas gå med i "early-access" programmet. Så gissningsvis använder inte BFV detta helt enkelt för Nvidia är inte klar med programvara än och det är allt annat än trivialt att svänga ihop något liknande på egen kammare.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Tack för bra svar @Yoshman

Svårt att estimera vad exakt som är den största flaskhalsen med andra ord.

Jag föreställde mig t.ex. att om man redan vet att ett objekt/yta är transparent och ska reflekteras medan det andra inte är så skulle strålningen endast behöva möta den ytan från kamerans sätt. På så sätt sparar man på kapaciteten från strålspårningen, men det är inte ens säkert att just det är ett problem.

För det känns väldigt onödigt att om man står och tittar på en stuga i skogen med ett fönster och 95% av bilen inte ska studsa vidare några strålar, att då behöva skicka ut strålar som träffar alla ytor.

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC