Ray tracing i Battlefield V – vi följer upp redaktionens tester

Trädvy Permalänk
Inhibitor
Registrerad
Dec 1999

Ray tracing i Battlefield V – vi följer upp redaktionens tester

Efter förra veckans testkavalkad av ray tracing ihop med Battlefield V passar Emil och Jonas på att sammanfatta resultaten och sia om teknikens framtid.

Läs hela artikeln här

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa leder till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Trädvy Permalänk
Medlem
Registrerad
Feb 2005

Känns skönt att sitta på ett 1080Ti just nu!

•·.·´¯`·.·•ЩIЯЦZ•·.·´¯`·.·•
Threadripper 1950X - Aorus x399 Gaming 7 - G.Skill Trident Z RGB 3200Mhz 4x8gb - EVGA GeForce GTX 1080 Ti FTW3 - 500gb Samsung 960 evo - Noctua NH-U14S TR4 - EVGA SuperNOVA G2, 1300W - Acer X34A

Trädvy Permalänk
Medlem
Plats
Sälen
Registrerad
Maj 2004

DXR och RTX har såklart en framtid som de flesta andra tekniker men i dagsläget är hårdvaran på tok för klen för att inte tala om den bristande kvalité som kan uppvisas i saker som reflektioner på rörligt vatten där mängden brus gör att det ser ut som myrornas krig (se video nedan), detta pga för få antal strålar/punkter och brusborttagning kan bara trolla bort så mycket även om man döper den till något med AI i namnet...

3DMark | R7 1800x | Asrock X370 Prof. Gaming | Corsair 16GB LPX 3733 c17 (sr-bdie@ 3466c14) | Corsair h150i Pro | MSI GTX1080 Gaming X | 500GB 970EVO, 1050GB MX300, 2x 120GB 510, 3TB 7200rpm | RM750x | Xonar Phoebus | Phanteks Enthoo Evolv Atx | Acer Z35 | Logitech G810 & SS Rival 500 | Xbox One | Elite Controller | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Trädvy Permalänk
Medlem
Plats
Jönköping
Registrerad
Feb 2011

Summa summarum så är de som nu köpt 20XX-kort betatestare för en ofärdig teknik, och när den väl är mogen måste man förmodligen ändå ha ett 30XX-kort för att det ska flyta på fint, så de som sitter med 10XX sitter rätt jävla gött nu.

Första inlägget i en tråd är sällan relevant när tid har förflutit. Vänligen svara på mitt senaste inlägg i tråden, inte det första, annars blir det kass. http://ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.

Trädvy Permalänk
Medlem
Plats
Skåne
Registrerad
Aug 2007

Enspelarläget War Stories verkar ju vara riktigt tungt.
Ser väldigt "köp mig nu" ut

1920 x 1080 + medium och ray tracing-reglaget till "Low" och allt tuffar på i 60 fps låter även det väldigt lockande.

Men att köpa ett Geforce RTX 2080 Ti för 14 000Kr. Det kommer ej att ske för mig. Eller rättare sagt, never ever jag köper en GPU för så mycket Kr.
Vill ge Ray tracing lite mer kött på benen

Ett begagnat GTX 1070 Eller 1080/TI däremot där kliar det till i köpfingret, men vill gärna ha AMD kort och Freesynk.

Pc 1--> [AsRock DualSata2][AMD4600+X2][7800GT] [Intel SSD X-25 80GB G2][1TB F3][750GB IDE][4GB XMSCorsiar]Pc 2--> [Asus Crosshair] [AMD 4800+X2] [2st 8800GT i SLI] [RAID 0 2x250GB] [6GB XMSCorsair] [Corsair HX750]Pc 3-->[NAS DNS-323 3TB][Skärmar=24",24",24" Eyefinity]Pc 4--> AsRock P67 Extreme 4,i7 2600K @ 4.0 GHz,830 256GB,16GB 1600MHz,HD 6950 2GBFoto [Nikon D3100][70-300/35 1,8/18-55

Trädvy Permalänk
Medlem
Plats
Linköping
Registrerad
Nov 2009

"Framtiden för ray tracing är nog ändå ljus."

Emil slår huvudet på spiken.

Trädvy Permalänk
Medlem
Plats
I en byhåla
Registrerad
Feb 2010

Körde BF5 idag och det märks att min i5'a flaskhalsar, kniven mot strupen bokstavligt.

Min hårdvara mot 2080 Ti Ray-tracing High ligger nog i samma FPS stadium.

Nuvarande PC -> 4670k - 16GB RAM - GTX 980Ti - EVGA Supernova G2 750W
Uppgradering 2018 -> 6850k - MSI x99a Goodlike Gaming - 64GB@3000MHz - M.2 SSD - 2TB SSD
Konsoler -> PS4 Pro - Xbox One X

Trädvy Permalänk
Medlem
Plats
Kalmar
Registrerad
Nov 2008

Är framtiden men inte idag..

Trädvy Permalänk
Testpilot
Plats
Stockholm
Registrerad
Jan 2008

Skulle vara intressant att se hur bra RTX fungerar i spel med lite simplare geometri och effekter, men för dagens AAA-titlar verkar det ju ohållbart i princip med nuvarande hårdvara. Jag som alltid spelar i 4K kan ju totalglömma ray tracing som det ser ut nu.

Nummer ett: CPU: i7 6850K @ 4.2Ghz. GPU: Asus Strix GTX 1080ti MB: Asus ROG Strix X99. RAM: 32GB Kingston HyperX Fury DDR4 2666Mhz. Kylare: NZXT Kraken X62. PSU: Seasonic Platinum 1200W. Chassi: NZXT H440W. Skärm: Asus PB287Q (4K), Samsung U32H850UMU.
Nummer två:CPU: i7 4790K GPU: ---------------- MB: Asus ROG Maximus Hero VII.
Bärbara: Acer Aspire V Nitro VN7-591. CPU i7 4710HQ. RAM: 8GB 1600Mhz DDR3. GPU GTX 860M.

Trädvy Permalänk
Medlem
Plats
Lund
Registrerad
Apr 2003

Personligen tror jag det är för tidigt att döma ut ray tracing helt och hållet för denna serie RTX-kort.

Min ståndpunkt är att fullskalig ray tracing aldrig kommer kunna köras på dessa korten. Men det är inte omöjligt att vissa titlar kommer kunna använda tekniken på ett bättre sätt. Som ni själva sa i videon så använder BF V endast det för reflektioner men det finns andra scenarion också som ni tog upp.

Ser man ray tracing som en teknik som kan växa in och bidra med mer och mer vid varje generation så kan man se denna RTX-serie som ett första av många steg innan tekniken är helt på sin plats.

Är det någon som har koll på hur det fungerar rent tekniskt? Låt säga att du står och tittar rakt fram med ett vattendrag framför dig där naturen på andra sidan speglas i vattnet. Klarar tekniken av att endast spåra strålarna baklänges från de objekt som endast syns i vattnet?

Som jag förstått det spåras ray tracing baklänges där strålarna skickas ut från FOV för att studsa/röra objekt. Om dessa objekt ska reflektera ljus så studsar strålarna vidare för att rita upp den bilden som de berör? Kan man inte direkt undvika de objekt som inte ska reflekteras? T.ex. all vanlig mark?

Kanske är det lätt att implementera ray tracing med hjälp av Direct X. Men om dagens grafikkort inte kan köra det fullskaligt så måste det begränsas till områden i bilden och helt plötsligt har man kanske massor av optimeringar som man som spelutvecklare själv måste bidra med?

Kan ni inte intervjua någon från DICE på detta?

System: CPU: 4790K, MB: Asus Z97-A, Memory: 16GB DDR3, GPU: 1x GTX 1070

Trädvy Permalänk
Medlem
Registrerad
Jun 2011

Det jag är nyfiken på är vad detta får för effekter på lite lägre nivå, och hur RTX-kretsarna kompletterar de "vanliga" kretsarna. Om man slår på RTX så torde RTX-kretsarna avlasta de vanliga kretsarna, då dessa inte längre behöver jobba med reflektioner. (i detta fallet) Stämmer det så långt? Eftersom vi vet att 2000-serien är snabbare än 1000 även i gammal vanlig rendering, samt att framerate ca halveras med RTX påslaget, kan man då dra slutsatsen att det är RTX-kretsarna som är flaskhalsen? Eller är RTX-funktioner delvis beroende av de vanliga kretsarna också?

MSI Z77A-GD65 | Intel Core i5 3570K @ 4,2 GHz | Palit Geforce GTX 1070 JetStream | 16 GB Corsair Vengeance 1600 MHz

You must come with me, young ones, for I am the grim reaper.

Trädvy Permalänk
Medlem
Plats
Halmstad
Registrerad
Aug 2002

Kollar man gpu anvåndningen ser man att korten inte ansträngs nämnvärt, jämfört med i standard grafik.
Mao flaskar tensor-cores hela gpun.
Ligger runt 30-40% men knappa 70fps.
Saknas tensokärnor, lite trist när man lagt 14k å det är flaskas så hårt av deras design.
Är jävligt nöjd med mitt 2080ti, men ärligt, hoppet från 1080ti är inte jätteimponerande och det krävdes ett RMAkort imman man fixk styr på skiten. :/

Skickades från m.sweclockers.com

Studio Artcore Tattoo
[i7 6700k@4,7ghz - MSI OC 2080ti - Vive Pro - SRD rig - NLv3 - Fanatec CSW2.5]

Trädvy Permalänk
Medlem
Registrerad
Dec 2016
Skrivet av tellus82:

DXR och RTX har såklart en framtid som de flesta andra tekniker men i dagsläget är hårdvaran på tok för klen för att inte tala om den bristande kvalité som kan uppvisas i saker som reflektioner på rörligt vatten där mängden brus gör att det ser ut som myrornas krig (se video nedan), detta pga för få antal strålar/punkter och brusborttagning kan bara trolla bort så mycket även om man döper den till något med AI i namnet...

Tekniken är ny så, ja, den kommer ha en del problem. Och nej, de har inte bara lagt till AI i namnet. Grafikkorten har ju kärnor i processorn med precis de antalen transistorer som behövs för att göra de vektormultipliceringar som neuronätet behöver. Det neuronät de använder för att "brusreducera" fram var resten av strålspårningen hade träffat om man hade haft tid att räkna ut samtliga. Hela nätets beräkningar blir därför klara så snabbt det går, detta eftersom de fysiskt har byggt kärnan att matcha neruronätets behov.
Vad mer kräver du för att säga att det AI bakom det och inte bara "AI"?

Trädvy Permalänk
Medlem
Plats
Inglewood
Registrerad
Aug 2005

I dagens läge är Ray-tracing inte gjort för generic run'n'gun spel som BF och liknande så att helt förkasta en ny teknik bara för att den inte är speciellt bra implementerad i ett spel är lite tråkigt.

Det skall bli riktigt intressant att se hur det kommer att bli i spel där man faktiskt ser och njuter av miljöerna som Tomb Raider och Hitman 2.

WS: 8700K 4.8ghz - 32GB - 1.5TB SSD - 15TB HDD - GTX 1070 8GB - 40" 3840x2160 - W10 Pro
LAPTOP: Lenovo ThinkPad X131e - 12GB - 120GB SSD - W10
NAS: HP MicroServer Gen8 - 32TB
Mobil: OnePlus 3

Trädvy Permalänk
Medlem
Plats
Västra Götaland
Registrerad
Mar 2016

En repris

Ryzen 1800X - Palit Nvidia GTX 1080 - Samsung (2016) 4K UHD TV som skärm och Samsung HW-K960 till ljudet.

Trädvy Permalänk
Medlem
Registrerad
Jul 2005

Ray Tracing är förlegat. Jag köpte PTX5080Ti förra veckan. Battlefield 9 med Path Tracing är sjukt snyggt!

Inet gratis frakt
T220 | X-Fi Titanium HD | GTX 680 DirectCU II TOP | 3770K | Ripjaws 8GB 2133MHz | 520 240GB | Red 32TB | Maximus V Gene | AX 750W | Tempest | Win7

Trädvy Permalänk
Medlem
Plats
Sälen
Registrerad
Maj 2004
Skrivet av necris:

Tekniken är ny så, ja, den kommer ha en del problem. Och nej, de har inte bara lagt till AI i namnet. Grafikkorten har ju kärnor i processorn med precis de antalen transistorer som behövs för att göra de vektormultipliceringar som neuronätet behöver. Det neuronät de använder för att "brusreducera" fram var resten av strålspårningen hade träffat om man hade haft tid att räkna ut samtliga. Hela nätets beräkningar blir därför klara så snabbt det går, detta eftersom de fysiskt har byggt kärnan att matcha neruronätets behov.
Vad mer kräver du för att säga att det AI bakom det och inte bara "AI"?

Bara för att något använder en viss typ av beräkning så är det inte en AI, nVidia använder en algoritm baserad uträkning, en algoritm som sedan tensor kärnor är riktigt bra på vilket gör att prestandan för detta steg ökat markant på kort med just tensor kärnor kontra de utan. Du kan dock göra exakt samma sak på kort utan tensor kärnor.

3DMark | R7 1800x | Asrock X370 Prof. Gaming | Corsair 16GB LPX 3733 c17 (sr-bdie@ 3466c14) | Corsair h150i Pro | MSI GTX1080 Gaming X | 500GB 970EVO, 1050GB MX300, 2x 120GB 510, 3TB 7200rpm | RM750x | Xonar Phoebus | Phanteks Enthoo Evolv Atx | Acer Z35 | Logitech G810 & SS Rival 500 | Xbox One | Elite Controller | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Trädvy Permalänk
Medlem
Plats
Ystad
Registrerad
Jan 2012

Att RTX-2000-korten är för svaga för Raytracing har varit tydligt ända sedan lanseringen.
(Framtidens teknik, men hårdvaran är inte redo för den - än.)

Kan vi få veta mer om DLSS nu istället? Känns som att det kommer vara det mest intressanta med den här generationen.

CPU: i7-8700k @ 4,8 GHz + Noctua NH-U14S || GPU: Asus RTX 2080 Dual OC.
MoBo: Asus Rog Strix Z370-F Gaming || RAM 16 GB G.Skill Trident Z RGB 3200 MHz.
PSU: NZXT Hale90 1000W 80+ Gold || Chassi: Corsair Crystal 460X + 4st Corsair LL120.
Lagring: Seagate Barracuda 7200rpm (2TB), Samsung 830(128 GB), Samsung 860 EVO(500GB) Crucial MX300(525 GB).
Skärmar: Acer Predator XB271HU + Samsung C27F396 || OS: Win 10 Pro N.

Trädvy Permalänk
Medlem
Plats
Sälen
Registrerad
Maj 2004
Skrivet av MinscS2:

Att RTX-2000-korten är för svaga för Raytracing har varit tydligt ända sedan lanseringen.
(Framtidens teknik, men hårdvaran är inte redo för den - än.)

Kan vi få veta mer om DLSS nu istället? Känns som att det kommer vara det mest intressanta med den här generationen.

DLSS känns klart mer intressant som något vettigt som faktiskt kan tillföra något för current gen HW, sen finns också andra nya fräna saker som adaptive shading som mer eller mindre analyserar vilka shaders som kan sänkas i kvalité eller till och med tas bort utan att påverka bildkvalité. Än verkar det dock vara lite tunnsått på tester och eller implementeringar.

3DMark | R7 1800x | Asrock X370 Prof. Gaming | Corsair 16GB LPX 3733 c17 (sr-bdie@ 3466c14) | Corsair h150i Pro | MSI GTX1080 Gaming X | 500GB 970EVO, 1050GB MX300, 2x 120GB 510, 3TB 7200rpm | RM750x | Xonar Phoebus | Phanteks Enthoo Evolv Atx | Acer Z35 | Logitech G810 & SS Rival 500 | Xbox One | Elite Controller | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Trädvy Permalänk
Medlem
Plats
Malmö
Registrerad
Feb 2002

Känns mycket som Nvidia från början siktade in sig på AI och så kom de på att de kunde använda samma grejer för att kränga dyra kort till konsumenter, med Raytrasing som säljargument.

Skickades från m.sweclockers.com

Trädvy Permalänk
Medlem
Registrerad
Dec 2016
Skrivet av tellus82:

Bara för att något använder en viss typ av beräkning så är det inte en AI, nVidia använder en algoritm baserad uträkning, en algoritm som sedan tensor kärnor är riktigt bra på vilket gör att prestandan för detta steg ökat markant på kort med just tensor kärnor kontra de utan. Du kan dock göra exakt samma sak på kort utan tensor kärnor.

Beräkningen, som är summan av neuronätets beräkningar, har utvecklats som alla andra neuronät. Sättet det utvecklas på och lär sig är AI. Neuronät är AI. Ja, jag tänkte skriva det i mitt förra svar med, man behöver inte ens grafikkort. Sedan åttiotalet har man gjort dessa uträkningar i processorn, och jag har alltid använt processorn. Om inte träningen eller hastigheten spelar någon egentlig roll så kan man lika gärna köra varje enskilt neurons beräkningar för sig, och sedan ta nästa, och nästa och nästa.

Neuronätens genombrott kom ju dock när man insåg att det handlar om vektormultiplikation och att grafikkort är fantastiska på det.

Detta, det senaste genombrottet är ju bara, som jag sa, att man har en fysisk enhet som faktiskt "fysiskt" tar emot en beräkning med rätt "storlek" i alla dimensioner och på så sätt gör hela serien av serier av beräkningar i ett svep.

Mina neuronät summerar tusentals tal tusentals gånger. Smartare metoder gör en serie vektormultiplikationer och summerar resultaten från dem. Nvidia gör en enda uträkning. Den uträkningen är samma uträkning som alla neuronen i neuronätet skulle ha gjort, och den är därför AI.

Självklart är neuronät endast en algoritm. En algoritm med en process som utvecklar den. Precis som evolution. Precis som ditt medvetande. Det är inte mindre AI för det.

Trädvy Permalänk
Medlem
Plats
Norrköping
Registrerad
Sep 2003

Jonas mic låter lite distad i detta klippet.

Burk: I52500k, Nvidia 560 ti, 16gb Ram.
Server: FSC PI 2664. Quad core, 4gb minne, lite hårddiskar och en hel del damm.

Trädvy Permalänk
Medlem
Plats
Sälen
Registrerad
Maj 2004
Skrivet av necris:

Beräkningen, som är summan av neuronätets beräkningar, har utvecklats som alla andra neuronät. Sättet det utvecklas på och lär sig är AI. Neuronät är AI. Ja, jag tänkte skriva det i mitt förra svar med, man behöver inte ens grafikkort. Sedan åttiotalet har man gjort dessa uträkningar i processorn, och jag har alltid använt processorn. Om inte träningen eller hastigheten spelar någon egentlig roll så kan man lika gärna köra varje enskilt neurons beräkningar för sig, och sedan ta nästa, och nästa och nästa.

Neuronätens genombrott kom ju dock när man insåg att det handlar om vektormultiplikation och att grafikkort är fantastiska på det.

Detta, det senaste genombrottet är ju bara, som jag sa, att man har en fysisk enhet som faktiskt "fysiskt" tar emot en beräkning med rätt "storlek" i alla dimensioner och på så sätt gör hela serien av serier av beräkningar i ett svep.

Mina neuronät summerar tusentals tal tusentals gånger. Smartare metoder gör en serie vektormultiplikationer och summerar resultaten från dem. Nvidia gör en enda uträkning. Den uträkningen är samma uträkning som alla neuronen i neuronätet skulle ha gjort, och den är därför AI.

Självklart är neuronät endast en algoritm. En algoritm med en process som utvecklar den. Precis som evolution. Precis som ditt medvetande. Det är inte mindre AI för det.

Visst, kalla det AI om du vill men om det enda som krävs att få kalla något för ai är att det gör fler beräkningar i ett svep istället för separat så anser jag personligen att uttrycket AI har devalverats något jävulskt.

Skickades från m.sweclockers.com

3DMark | R7 1800x | Asrock X370 Prof. Gaming | Corsair 16GB LPX 3733 c17 (sr-bdie@ 3466c14) | Corsair h150i Pro | MSI GTX1080 Gaming X | 500GB 970EVO, 1050GB MX300, 2x 120GB 510, 3TB 7200rpm | RM750x | Xonar Phoebus | Phanteks Enthoo Evolv Atx | Acer Z35 | Logitech G810 & SS Rival 500 | Xbox One | Elite Controller | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Trädvy Permalänk
Medlem
Plats
Linköping
Registrerad
Jun 2007
Skrivet av milohenke:

Känns mycket som Nvidia från början siktade in sig på AI och så kom de på att de kunde använda samma grejer för att kränga dyra kort till konsumenter, med Raytrasing som säljargument.

Fast AI-delen och ray tracing-delen av Turing-kretsen är helt olika delar. Turing har tensor-kärnor som används för deep learning, d.v.s. en sorts AI, vilket utnyttjas av t.ex. DLSS. Sen finns även ray tracing-kärnor som är helt dedikerade till just ray tracing. Sweclockers har en genomgång av det här.

Trädvy Permalänk
Medlem
Registrerad
Mar 2014

Lite som VR. Häftigt, för tidigt, för tungdrivet och för dyrt.

| View 31 TG | Asus ROG Crosshair VI Hero | Corsair RMX 1000W | AMD R7 1800X |
| EVGA Geforce GTX 1080 Ti FE | G.Skill TridentZ 16GB 3000MHz CL15 |
| Asus Strix Raid DLX | Acer 27" Predator XB271HK G-Sync 4K IPS | Tobii 4C |
| LG OLED55B6V | nVidia Shield V2 |

Trädvy Permalänk
Medlem
Plats
Lund
Registrerad
Maj 2002

Strålsprut? Nähä, inte det.. En tredje sak som DICE nämnde i samband med presentationen av tekniken, var att sänka upplösningen på själva raytracingdelen för att få upp prestandan. Någon som vet något mer om det?

Vituð ér enn, eða hvað?

Trädvy Permalänk
Datavetare
Plats
Stockholm
Registrerad
Jun 2011
Skrivet av FredrikMH:

Personligen tror jag det är för tidigt att döma ut ray tracing helt och hållet för denna serie RTX-kort.

Läser man CPU-testerna kan man ibland få känslan att halva SweC hålla på med rendering av olika former. Var tog alla dessa personer vägen givet att även RTX 2070 får den snabbaste HEDT CPU att framstå som en miniräknare när det kommer till just ray-tracing?(Realistiskt är det mindre än en på tusen av SweC medlemmar som faktiskt håller på med rendering, så förstår helt perspektivet folk har: DXR spel är i praktiken det enda som har en bredare relevans).

Skrivet av FredrikMH:

Är det någon som har koll på hur det fungerar rent tekniskt? Låt säga att du står och tittar rakt fram med ett vattendrag framför dig där naturen på andra sidan speglas i vattnet. Klarar tekniken av att endast spåra strålarna baklänges från de objekt som endast syns i vattnet?

Väldigt förenklat består processen i följande steg

  • en shader skapar strålar, t.ex. initialt en stråle från "kameran" genom varje pixel på din skärm

  • RT-kärnorna följer strålarna för att hitta första objekt som varje stråle träffar

  • träffas ett objekt körs en shader som avgör saker som: är det en transparent yta, ska strålen reflekteras (i så fall hur många strålar ska skickas ut, etc)

  • träffas inget objekt när strålen färdas en specificerad maxlängd anropas en shader som hanterar just detta fall (miss-shader)

  • om objekt har träffats körs i stället en shader som ska räkna vilken totaleffekten blir på den stråle som initialt skickas från kameran, d.v.s. den man faktiskt "ser"

D.v.s. processen är ett tätt samarbete mellan RT-kärnor (som följer strålar och för att hitta de objekt strålarna kolliderar med) och SMs (som beräknar vilken effekt varje träffad yta ska ge).

Tekniken i sig är "fulländad" i det att tillskott från exakt alla objekt som finns i spelvärlden skulle kunna beaktas. I praktiken måste man göra förenklingar om det ska bli något som likar realtid. Exakt vad man måste beräkna och vad man kan utelämna är vad spelutvecklarna nu måste lära sig, utfallet av detta är kritiskt för om dagens Turing-kort kommer kunna använda ray-tracing i spel eller ej.

Skrivet av FredrikMH:

Som jag förstått det spåras ray tracing baklänges där strålarna skickas ut från FOV för att studsa/röra objekt. Om dessa objekt ska reflektera ljus så studsar strålarna vidare för att rita upp den bilden som de berör? Kan man inte direkt undvika de objekt som inte ska reflekteras? T.ex. all vanlig mark?

Icke-reflekterande ytor blir ju billigare då deras resultat kan beräknas utan att nya strålar behöver skickas ut.

Det jag undrar här är om man verkligen måste följa alla strålar från kameran i separata ray-tracing pass. Kan missförstått något här, men så verkar de exempel jag tittat på fungera och DXR verkar mycket vara designad runt detta.

Känns som då man ändå utför rastrering kommer man som bieffekt av detta ändå räkna ut vilken den yta som är närmast kameran varje stråle träffar. Tror problemet här är att det inte är praktiken möjligt att ladda alla relevanta resurser för att utföra rastering samtidigt som ray-tracing, man nämner flera gånger att ray-tracing äter mer resurser i kortet då man måste ha shaders för _alla_ olika typer av material aktiva samtidigt då man inte vet vilken yta en stråle träffar härnäst.

En vanlig optimering är annars att man rasterar saker baserat på deras egenskaper, ytor som delar texturer, materialegenskaper etc körs annars för sig, följt av byte av sådant för att rastrerar nästa uppsättning ytor. Tester verkar också peka på att t.ex. mängden VRAM som krävs är väsentligt högre med RTX-on, vilket nog är väntat.

Skrivet av FredrikMH:

Kanske är det lätt att implementera ray tracing med hjälp av Direct X. Men om dagens grafikkort inte kan köra det fullskaligt så måste det begränsas till områden i bilden och helt plötsligt har man kanske massor av optimeringar som man som spelutvecklare själv måste bidra med?

Känns inte som man kan dra något gigantiska växlar på BFV. DXR verkar rätt mycket påtryckt i efterhand.

Som jag förstår det använder man överhuvudtaget inte Tensor-kärnor för "denoising", det är ju problematiskt ur i alla fall två aspekter.

Dels lastar man SMs än mer då man utför detta med post-processing shaders, SMs är ju under hårt tryck då den används för rastering och även för ray-tracing (RT-cores hittar "bara" ytorna, vad som ska hända är shaders).

Dels så skippar man ~9/10 av kretsens beräkningskraft genom att inte använda Tensor-kärnor. Inte på långa vägar en perfekt jämförelse då Tensor-kärnor utför en väldigt specifik uppgift. Men i detta fall är det ju en uppgift Tensor-kärnorna faktiskt kan utföra, i de lägena är de ungefär en tiopotens snabbare än aggregerade kraften hos SMs!

Man använder specifikt inte DLSS. En av huvudpunkterna med DLSS är ju att ray-tracing då kan utföras med lägre upplösning jämfört med vad man renderar till. Krävs bara halva beräkningskraften att köra ray-tracing i 1366x768 i stället för 1920x1080, man får ett rätt mycket trevligare resultat om ljussättning/skuggor/reflektioner är lite "mjuka" men har relativt lite "brus" jämfört med det omvända.

I princip alla v1.0 av saker har brister, så lär fallet vara även med RTX 2000-serien. Men vi lär inte ha någon bra bild över hur pass bra dessa kort faktiskt kan hantera ray-tracing i spel de närmaste 12-24 månaderna, det är trots allt mer än tre år sedan DX12 släpptes och spelmotorerna måste ju först få vettigt stöd för DX12 innan vettig DXR ens är något man kan börja jobba på.

Skrivet av FredrikMH:

Kan ni inte intervjua någon från DICE på detta?

Håller med, det vore väldigt spännande läsning!

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Trädvy Permalänk
Medlem
Plats
Sälen
Registrerad
Maj 2004
Skrivet av Yoshman:

Läser man CPU-testerna kan man ibland få känslan att halva SweC hålla på med rendering av olika former. Var tog alla dessa personer vägen givet att även RTX 2070 får den snabbaste HEDT CPU att framstå som en miniräknare när det kommer till just ray-tracing?(Realistiskt är det mindre än en på tusen av SweC medlemmar som faktiskt håller på med rendering, så förstår helt perspektivet folk har: DXR spel är i praktiken det enda som har en bredare relevans).

Väldigt förenklat består processen i följande steg

  • en shader skapar strålar, t.ex. initialt en stråle från "kameran" genom varje pixel på din skärm

  • RT-kärnorna följer strålarna för att hitta första objekt som varje stråle träffar

  • träffas ett objekt körs en shader som avgör saker som: är det en transparent yta, ska strålen reflekteras (i så fall hur många strålar ska skickas ut, etc)

  • träffas inget objekt när strålen färdas en specificerad maxlängd anropas en shader som hanterar just detta fall (miss-shader)

  • om objekt har träffats körs i stället en shader som ska räkna vilken totaleffekten blir på den stråle som initialt skickas från kameran, d.v.s. den man faktiskt "ser"

D.v.s. processen är ett tätt samarbete mellan RT-kärnor (som följer strålar och för att hitta de objekt strålarna kolliderar med) och SMs (som beräknar vilken effekt varje träffad yta ska ge).

Tekniken i sig är "fulländad" i det att tillskott från exakt alla objekt som finns i spelvärlden skulle kunna beaktas. I praktiken måste man göra förenklingar om det ska bli något som likar realtid. Exakt vad man måste beräkna och vad man kan utelämna är vad spelutvecklarna nu måste lära sig, utfallet av detta är kritiskt för om dagens Turing-kort kommer kunna använda ray-tracing i spel eller ej.

Icke-reflekterande ytor blir ju billigare då deras resultat kan beräknas utan att nya strålar behöver skickas ut.

Det jag undrar här är om man verkligen måste följa alla strålar från kameran i separata ray-tracing pass. Kan missförstått något här, men så verkar de exempel jag tittat på fungera och DXR verkar mycket vara designad runt detta.

Känns som då man ändå utför rastrering kommer man som bieffekt av detta ändå räkna ut vilken den yta som är närmast kameran varje stråle träffar. Tror problemet här är att det inte är praktiken möjligt att ladda alla relevanta resurser för att utföra rastering samtidigt som ray-tracing, man nämner flera gånger att ray-tracing äter mer resurser i kortet då man måste ha shaders för _alla_ olika typer av material aktiva samtidigt då man inte vet vilken yta en stråle träffar härnäst.

En vanlig optimering är annars att man rasterar saker baserat på deras egenskaper, ytor som delar texturer, materialegenskaper etc körs annars för sig, följt av byte av sådant för att rastrerar nästa uppsättning ytor. Tester verkar också peka på att t.ex. mängden VRAM som krävs är väsentligt högre med RTX-on, vilket nog är väntat.

Känns inte som man kan dra något gigantiska växlar på BFV. DXR verkar rätt mycket påtryckt i efterhand.

Som jag förstår det använder man överhuvudtaget inte Tensor-kärnor för "denoising", det är ju problematiskt ur i alla fall två aspekter.

Dels lastar man SMs än mer då man utför detta med post-processing shaders, SMs är ju under hårt tryck då den används för rastering och även för ray-tracing (RT-cores hittar "bara" ytorna, vad som ska hända är shaders).

Dels så skippar man ~9/10 av kretsens beräkningskraft genom att inte använda Tensor-kärnor. Inte på långa vägar en perfekt jämförelse då Tensor-kärnor utför en väldigt specifik uppgift. Men i detta fall är det ju en uppgift Tensor-kärnorna faktiskt kan utföra, i de lägena är de ungefär en tiopotens snabbare än aggregerade kraften hos SMs!

Man använder specifikt inte DLSS. En av huvudpunkterna med DLSS är ju att ray-tracing då kan utföras med lägre upplösning jämfört med vad man renderar till. Krävs bara halva beräkningskraften att köra ray-tracing i 1366x768 i stället för 1920x1080, man får ett rätt mycket trevligare resultat om ljussättning/skuggor/reflektioner är lite "mjuka" men har relativt lite "brus" jämfört med det omvända.

I princip alla v1.0 av saker har brister, så lär fallet vara även med RTX 2000-serien. Men vi lär inte ha någon bra bild över hur pass bra dessa kort faktiskt kan hantera ray-tracing i spel de närmaste 12-24 månaderna, det är trots allt mer än tre år sedan DX12 släpptes och spelmotorerna måste ju först få vettigt stöd för DX12 innan vettig DXR ens är något man kan börja jobba på.

Håller med, det vore väldigt spännande läsning!

Just denoising sägs inte shaders stå för alls, detta kan dessutom ses live på allmän GPU belastning som sjunker som en sten när fps droppar pga hård DXR/RTX last, det som finns kvar då är just tensor eller RT kärnor, om de använder de få RT kärnorna till att också köra denoise passen kan det förklara den idag inte helt optimala prestandan.

Tror det är lite för mycket gissningar just nu om vad som egentligen gör vad, att nVidia inte skulle använda tensor till denoising låter en aning osannolikt och kontraproduktivt.

3DMark | R7 1800x | Asrock X370 Prof. Gaming | Corsair 16GB LPX 3733 c17 (sr-bdie@ 3466c14) | Corsair h150i Pro | MSI GTX1080 Gaming X | 500GB 970EVO, 1050GB MX300, 2x 120GB 510, 3TB 7200rpm | RM750x | Xonar Phoebus | Phanteks Enthoo Evolv Atx | Acer Z35 | Logitech G810 & SS Rival 500 | Xbox One | Elite Controller | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Trädvy Permalänk
Datavetare
Plats
Stockholm
Registrerad
Jun 2011
Skrivet av tellus82:

Just denoising sägs inte shaders stå för alls, detta kan dessutom ses live på allmän GPU belastning som sjunker som en sten när fps droppar pga hård DXR/RTX last, det som finns kvar då är just tensor eller RT kärnor, om de använder de få RT kärnorna till att också köra denoise passen kan det förklara den idag inte helt optimala prestandan.

Tror det är lite för mycket gissningar just nu om vad som egentligen gör vad, att nVidia inte skulle använda tensor till denoising låter en aning osannolikt och kontraproduktivt.

Tog den informationen från följande video där informationen kom direkt från Dice (ca 9:30 in i videon)

"To clean up ray-tracing noise, Dice uses custom temporal filter based upon their TAA (d.v.s. en shader i SMs) and a separate spatial filter (som också lär vara en shader i SMs) after that to make sure reflections never break down and turn into the grainy unfiltered results."

Baserar man brusreducering på TAA kommer man få problem med ytor som flyttar sig relativt mycket mellan scener. Är ju exakt det man ser i videon du länkade ovan.

"Denoise" är inte något man bara slår på, den finessen är överhuvudtaget inte del av DXR. Output från DXR kommer vara den ofiltrerade resultatet, är upp till varje spelmotor att göra lämplig filtering (och vad som är lämpligt varierar ju beroende på typ av spel samt vad man använder ray-tracing till).

Här är ett exempel på en trivial "closest-hit-shader", output här är färgen på pixel men det är "application defined" vad exakt output är. Dock är det 1-till-1 korrelation mellan strålar och utdata från "closest-hit-shader" samt "miss-shader" som är slutpunkten för varje stråle.

Nvidia verkar ha färdig kod för CUDA för att använda Tensor-kärnor för brusreducering

men letar man fram motsvarande i GameWorks så verkar det ännu inte klart utan man uppmanas gå med i "early-access" programmet. Så gissningsvis använder inte BFV detta helt enkelt för Nvidia är inte klar med programvara än och det är allt annat än trivialt att svänga ihop något liknande på egen kammare.

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Trädvy Permalänk
Medlem
Plats
Lund
Registrerad
Apr 2003

Tack för bra svar @Yoshman

Svårt att estimera vad exakt som är den största flaskhalsen med andra ord.

Jag föreställde mig t.ex. att om man redan vet att ett objekt/yta är transparent och ska reflekteras medan det andra inte är så skulle strålningen endast behöva möta den ytan från kamerans sätt. På så sätt sparar man på kapaciteten från strålspårningen, men det är inte ens säkert att just det är ett problem.

För det känns väldigt onödigt att om man står och tittar på en stuga i skogen med ett fönster och 95% av bilen inte ska studsa vidare några strålar, att då behöva skicka ut strålar som träffar alla ytor.

System: CPU: 4790K, MB: Asus Z97-A, Memory: 16GB DDR3, GPU: 1x GTX 1070