Crytek förklarar ray tracing-demo – 1080p i 30 fps på Radeon RX Vega 56

Permalänk
Melding Plague

Crytek förklarar ray tracing-demo – 1080p i 30 fps på Radeon RX Vega 56

I ett blogginlägg berättar Crytek fler detaljer om deras ray tracing-demo. Detaljerna innefattar bland annat upplösning, bilduppdatering och hur demon skulle prestera på Nvidias RTX-grafikkort.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

När man jämför med de tidiga "icke optimerade" RTX värdena får man anse 1080 30fps inte är så illa med tanke på att RTX kort klarade knappt 30 fps i tidiga nivåer.
https://www.sweclockers.com/test/26605-ray-tracing-i-battlefi...

Optimering är nyckeln här.
RTX har ju helt klart optimerats mer, och det låter lovande att denna teknik kan det med. Att utnyttja allt kraft man annars lämnar orörd är ju kanon. Tittar man på RTX korten lämnar de ofta mycket av vanliga kärnan orörd också när RT blir flaskhalsen. Om även denna kan dynamiskt balanseras får man ju mycket bättre övergång där också.

Ray Traceing är inget negativt. Men att låsa den till bara ett chip, och en speciell typ, är.

En öppen API lösning, som kan använda korten dynamiskt låter helt klart bättre.

Permalänk
Medlem

Crysis 4 och RT, vore ballt.

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Medlem
Skrivet av Vangen:

Crysis 4 och RT, vore ballt.

Oj helt missat att det fanns en 4a på gång. Trodde Crytek var halvt utplånat

Skickades från m.sweclockers.com

Visa signatur

i7 4790k | Asus Z97-A | 16GB | Gainward GTX 1070 Phoenix GS
Phanteks Enthoo Evolv ATX TG | EVGA Supernova G2 750W
Samsung 850 PRO 128GB | Samsung 850 EVO 250GB
Seagate Barracuda 4TB | Cryorig H5 Ultimate

Permalänk
Medlem
Skrivet av Paddanx:

När man jämför med de tidiga "icke optimerade" RTX värdena får man anse 1080 30fps inte är så illa med tanke på att RTX kort klarade knappt 30 fps i tidiga nivåer.
https://www.sweclockers.com/test/26605-ray-tracing-i-battlefi...
<snip>

Mja, är rätt missvisande att jämföra ett väldigt begränsat teknikdemo med förinspelad slinga jämfört med ett fullskaligt öppet spel med AI, fysik etc.

Permalänk
Medlem

@Paddanx: Tror du förenklar problemet lite här, att ha en speciel del av kortet som uteslutande jobbar med rtx är nog ett måste ett tag till innan beräkningskraften är tillräcklig. Och innan högafflarna börjar vina över mitt huvud med kommentarer om att de visst går osv så har ni min fulla vällsingnelse å tro något annat. Men innan vi når ok fps med dedikerad hårdvara så kan man nog inte vänta sig under utan de, 30 fps är inte ok och de är inte 60 heller in min bubbla i alla fall.

Visa signatur

CPU: i7- 13700KF + Corsair 115i Pro || GPU: 2080 Super FE
MoBo: Gigabyte Gaming X AX Z790 || Ram 32GB G.Skill Trident Z 6600mhz
Chassi: Corsair Obsidian 500D PSU: Corsair RMX 850
Skärm 1: AGON AG271QG 1440p 165hz Skärm 2: LG C2

Permalänk
Inaktiv
Skrivet av Vinolik:

Oj helt missat att det fanns en 4a på gång. Trodde Crytek var halvt utplånat

Skickades från m.sweclockers.com

Med betoning på hade.
Lär tyvärr aldrig hända.

Permalänk
Skrivet av Vangen:

Crysis 4 och RT, vore ballt.

Du behöver inte vänta på 4:an.
https://www.youtube.com/watch?v=NkGvESObKxE&t=1084s

Visa signatur

OS: Win 10 Home | Chassi: NZXT H440 | PSU: Corsair HX850i plat | Moderkort: ASUS Maximus Hero VIII | CPU: i7 6700k @ 4.5Ghz @ 1.29v | RAM: HyperX Fury 16Gb @ 3000Mhz | GPU: ASUS 1080ti Strix Gaming | Kylning: NZXT Kraken X62 | Fläktar: Fractal Design Venturi x1 AF140, x2 sp140, x3 sp120 | Ljud: ASUS Xonar Xense med Sennheiser PC350Se | Lagring: Crucial M4 64gb, Samsung 850evo 500gb, Seagate Barracuda 1tb | M/K: Corsair M65 Pro gaming rgb & Corsair Strafe RGB | Bildskärm: acer XB270HU

Permalänk
Medlem

Crysis 4 confirmed?

Skickades från m.sweclockers.com

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk

Var ju ett jefla liv i luckan för nån månad sedan när demo't visades. Nu är det knäpptyst??
https://www.sweclockers.com/forum/trad/1551889-crytek-demonst...

Permalänk
Medlem
Skrivet av Vash:

@Paddanx: Tror du förenklar problemet lite här, att ha en speciel del av kortet som uteslutande jobbar med rtx är nog ett måste ett tag till innan beräkningskraften är tillräcklig. Och innan högafflarna börjar vina över mitt huvud med kommentarer om att de visst går osv så har ni min fulla vällsingnelse å tro något annat. Men innan vi når ok fps med dedikerad hårdvara så kan man nog inte vänta sig under utan de, 30 fps är inte ok och de är inte 60 heller in min bubbla i alla fall.

Mjae, är väl egentligen inte ett måste om RTX inte heller räcker till. Men nästa gen kanske?

Permalänk
Datavetare

Självklart är det alltid bättre om det är tekniskt möjlig att öka den generella prestandan i stället för att accelerera specifika funktioner ur ett rent filosofiskt perspektiv. Ändå väljer man rätt ofta att dedicera kisel till vissa väldigt specifika funktioner, varför då?

De här två meningarna borde belysa det hela rätt väl

"At the moment on GTX 1080, we usually compute reflections and refractions at half-screen resolution. RTX will probably allow full-screen 4k resolution."

Man får utgå från att det är RTX 2080Ti som refereras här. Kretsen i RTX 2080Ti har ~2,5 gånger så många transistorer som kretsen i GTX 1080.

Att lösa specifika saker i kisel brukar få ungefär en tiopotens bättre prestanda per transistor jämfört med att lösa samma problem med programvara körandes i på generella beräkningsenheter. RT-kärnorna verkar inte på något sätt vara ett undantag. 2,5 gånger så många transistorer ger även i detta fall ~16 gånger högre prestanda för just ray-tracing (från full-HD med ray-tracing i halv upplösning till 4k mer ray-tracing i full upplösning).

Sedan får man inte glömma att RTX 2080Ti är 50-75 % snabbare (lite beroende på vad flaskhalsen är) även i fall som helt saknar ray-tracing.

I slutändan handlar det om få till den optimala mixen av kisel med fasta funktioner och generellt kisel. Moderna smarta mobiler är ett exempel på enheter som enbart är möjligt då de har kisel dedicerat för alla de vanligt förekommande beräkningstunga funktionerna. En tiopotens högre prestanda mer transistor betyder ungefär en tiopotens högre prestanda/W mot en generell lösning!

Sedan är Crytek sätt att närma sig detta problem ett bra exempel på hur saker bör gå till. I både BFV och Shadow of the Tomb Raider verkar man gått från andra hållet, slå på ray-tracing på i princip allt för att sedan lura ut vad man kan ta bort utan att det påverkar slutresultatet speciellt mycket.

Crytek kolla i stället var man måste använda ray-tracing, men kör rastrering som standardval. Nämns ju i bloginlägget att det fanns flertalet artefakter i demo då man varit lite för aggressiv i sin optimering. Vad Crytek gör är rätt mycket hur man verkar närma sig problem i Unreal Engine 4, ray-tracing introducerades där väldigt nyligen

Det UE 4.22 gör så rätt är att man jobbat stenhårt på att göra ray-tracing till något som enkelt kan slås av/på ända ner på enskilda objekt. Blir då enklast möjliga för spelutvecklare att enbart använda tekniken där den verkligen ger en synbar påverkan!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Samma kompositör som super position?

Visa signatur

Gilla min Guide till sweclockers tävlingen! :D : #12510535

Min Sweclockers-låt som aldrig deltog i Jultävlingen. Enjoy! https://www.youtube.com/watch?feature=player_embedded&v=g7gof...

Permalänk
Medlem
Skrivet av gummifisk:

Var ju ett jefla liv i luckan för nån månad sedan när demo't visades. Nu är det knäpptyst??
https://www.sweclockers.com/forum/trad/1551889-crytek-demonst...

Jag hade glömt bort diskussionen i tråden men det var intressant att läsa igen så tackar för att du rotade fram den

Skickades från m.sweclockers.com

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Datavetare
Skrivet av Paddanx:

Ray Traceing är inget negativt. Men att låsa den till bara ett chip, och en speciell typ, är.

En öppen API lösning, som kan använda korten dynamiskt låter helt klart bättre.

Håller 100 % med om det du skriver här. Enda jag undrar är, detta är väl ändå bara att slå in öppna dörrar? För så vitt jag känner till finns det exakt noll APIer tänkt för ray-tracing i spel där man låst något till speciella HW. Vilket även medför att det noll av de spel som släppts med ray-tracing senaste tiden är låst till speciellt HW.

DXR samt Vulkan RT är specifikt designade så de i teorin skulle kunna implementeras på precis alla GPUer som är kapabla till att köra DX12. Att t.ex. BFV och Metro Exodus fram till för ett par veckor sedan bara fungerade på RTX korten var till 100 % en konsekvens av bristande stöd i drivrutiner hos Nvidias icke RTX GPUer samt AMDs GPUer.

Trevliga är att detta verkar vara en trend, DirectML är definierat än mer abstrakt just för att man ska ha rejäl frihet i hur saker implementeras, dedicerat kisel, generellt kisel + programvara och/eller programvara på en vanlig CPU.

Sen är det frågan hur praktisk möjligt det kommer bli att implementera ray-tracing i spel på de GPUer som saknar dedicerat kisel för det. Är precis samma historia som att t.ex. "anisotropic filtering" var något folk behövde ta ställning till för 15 år sedan, men som de flesta nog knappt hört talas om idag för det är en självklarhet att använda då alla GPUer hanterar det lysande.

Är ju uppenbart att man i de första RTX titlarna bara vill få ut något fort, man slog på ray-tracing rakt av och hoppades på det bästa (vilket rent krasst räckte för att kunna visa upp lite reklam/previews i alla fall).

En modern spelmotor är otroligt komplicerad och skulle man väntat till allt hade en optimeringsnivå som är mer normalt hade vi fortfarande väntat på första spelet. Se videon ovan för UE 4.22, mindre än två månader sedan vettig stöd för ray-tracing kommit in en spelmotor (är fortfarande i beta för t.ex. Unity). Nu ska någon bara göra ett spel på UE 4.22 eller senare också...

I UE 4.22, likt som verkar vara fallet även för Cryengine, har har man jobbat väldigt hårt på att spelkonstruktören ska kunna välja exakt vilka delar som använder sig av ray-tracing. I den bästa fall kan detta ge oss speltitlar som faktiskt kan köra ray-tracing (via DXR vilket är vad UE använder) även på icke RTX kort!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av gummifisk:

Var ju ett jefla liv i luckan för nån månad sedan när demo't visades. Nu är det knäpptyst??
https://www.sweclockers.com/forum/trad/1551889-crytek-demonst...

För folk såg "Vega56 4k 30FPS ray tracing. Släng er i väggen nvidioter. Ray tracing funkar lika bra utan RT cores LOL".
Men sen så såg de att de enbart körde på 1080p men publicerat en video i 4k.
Helt plötsligt är det inte så intressant längre när det krävs ~4x prestandan för att nå de förväntade värdena. 8x om man tar hänsyn till half resolution.

Skrivet av Yoshman:

Självklart är det alltid bättre om det är tekniskt möjlig att öka den generella prestandan i stället för att accelerera specifika funktioner ur ett rent filosofiskt perspektiv. Ändå väljer man rätt ofta att dedicera kisel till vissa väldigt specifika funktioner, varför då?

De här två meningarna borde belysa det hela rätt väl

"At the moment on GTX 1080, we usually compute reflections and refractions at half-screen resolution. RTX will probably allow full-screen 4k resolution."

Man får utgå från att det är RTX 2080Ti som refereras här. Kretsen i RTX 2080Ti har ~2,5 gånger så många transistorer som kretsen i GTX 1080.

Att lösa specifika saker i kisel brukar få ungefär en tiopotens bättre prestanda per transistor jämfört med att lösa samma problem med programvara körandes i på generella beräkningsenheter. RT-kärnorna verkar inte på något sätt vara ett undantag. 2,5 gånger så många transistorer ger även i detta fall ~16 gånger högre prestanda för just ray-tracing (från full-HD med ray-tracing i halv upplösning till 4k mer ray-tracing i full upplösning).

Sedan får man inte glömma att RTX 2080Ti är 50-75 % snabbare (lite beroende på vad flaskhalsen är) även i fall som helt saknar ray-tracing.

I slutändan handlar det om få till den optimala mixen av kisel med fasta funktioner och generellt kisel. Moderna smarta mobiler är ett exempel på enheter som enbart är möjligt då de har kisel dedicerat för alla de vanligt förekommande beräkningstunga funktionerna. En tiopotens högre prestanda mer transistor betyder ungefär en tiopotens högre prestanda/W mot en generell lösning!

Sedan är Crytek sätt att närma sig detta problem ett bra exempel på hur saker bör gå till. I både BFV och Shadow of the Tomb Raider verkar man gått från andra hållet, slå på ray-tracing på i princip allt för att sedan lura ut vad man kan ta bort utan att det påverkar slutresultatet speciellt mycket.

Crytek kolla i stället var man måste använda ray-tracing, men kör rastrering som standardval. Nämns ju i bloginlägget att det fanns flertalet artefakter i demo då man varit lite för aggressiv i sin optimering. Vad Crytek gör är rätt mycket hur man verkar närma sig problem i Unreal Engine 4, ray-tracing introducerades där väldigt nyligen
https://www.youtube.com/watch?v=EekCn4wed1E

Det UE 4.22 gör så rätt är att man jobbat stenhårt på att göra ray-tracing till något som enkelt kan slås av/på ända ner på enskilda objekt. Blir då enklast möjliga för spelutvecklare att enbart använda tekniken där den verkligen ger en synbar påverkan!

4k motsvarar 4*1080p. Halv upplösning motsvarar 0,5 resolution scale. Det betyder att antalet pixlar totalt sett har halverats. Så det är inte 16x mer prestanda som krävs utan 4/0,5=8 ggr mer. Sedan så vet jag inte vad vitsen är att utgå från en spekulation från deras sida.

Turing är ca 2ggr snabbare sett till samma prestandaklass utan RT cores i DXR.

För voxels är det lite svårare att utgå från. Det finns ett paper från NVIDIA som handlar om just det där de jämför GTX 1080 och Titan V för flera olika metoder. För de nyare metoderna verkar upp till 4x snabbare gälla (utan RT cores), beror förstås lite på vad man kollar på. Men man kan aldrig veta förrän man testat. I BF V var 2080ti ungefär 40% snabbare än Titan V med DXR vad jag minns. Säger dock inte allting om RT prestanda då skillnaden är mycket högre än FPS skillnaden för hela framen. Det är dock utgångsvärden som visar att RT acceleratorer är mycket, mycket viktigt.

Angående artefakterna så har de fortfarande inte kommenterat artefakterna när speglarna rör på sig, samt att en reflektion verkar ha gått igenom en vägg. Och då man måste göra om vissa små föremål till dynamiska föremål så får man ändå ge DXR föredelen att "everything just works". Det verkar även vara ett av de stora problemen som de som implementerat DXR stött på, att omstrukturering tar lång tid med många dynamiska föremål. Svårt att avgöra hur det just skalar i det fallet som de visade med 1(!!!) rörligt föremål.

Skrivet av Yoshman:

Håller 100 % med om det du skriver här. Enda jag undrar är, detta är väl ändå bara att slå in öppna dörrar? För så vitt jag känner till finns det exakt noll APIer tänkt för ray-tracing i spel där man låst något till speciella HW. Vilket även medför att det noll av de spel som släppts med ray-tracing senaste tiden är låst till speciellt HW.

DXR samt Vulkan RT är specifikt designade så de i teorin skulle kunna implementeras på precis alla GPUer som är kapabla till att köra DX12. Att t.ex. BFV och Metro Exodus fram till för ett par veckor sedan bara fungerade på RTX korten var till 100 % en konsekvens av bristande stöd i drivrutiner hos Nvidias icke RTX GPUer samt AMDs GPUer.

Trevliga är att detta verkar vara en trend, DirectML är definierat än mer abstrakt just för att man ska ha rejäl frihet i hur saker implementeras, dedicerat kisel, generellt kisel + programvara och/eller programvara på en vanlig CPU.

Sen är det frågan hur praktisk möjligt det kommer bli att implementera ray-tracing i spel på de GPUer som saknar dedicerat kisel för det. Är precis samma historia som att t.ex. "anisotropic filtering" var något folk behövde ta ställning till för 15 år sedan, men som de flesta nog knappt hört talas om idag för det är en självklarhet att använda då alla GPUer hanterar det lysande.

Är ju uppenbart att man i de första RTX titlarna bara vill få ut något fort, man slog på ray-tracing rakt av och hoppades på det bästa (vilket rent krasst räckte för att kunna visa upp lite reklam/previews i alla fall).

En modern spelmotor är otroligt komplicerad och skulle man väntat till allt hade en optimeringsnivå som är mer normalt hade vi fortfarande väntat på första spelet. Se videon ovan för UE 4.22, mindre än två månader sedan vettig stöd för ray-tracing kommit in en spelmotor (är fortfarande i beta för t.ex. Unity). Nu ska någon bara göra ett spel på UE 4.22 eller senare också...

I UE 4.22, likt som verkar vara fallet även för Cryengine, har har man jobbat väldigt hårt på att spelkonstruktören ska kunna välja exakt vilka delar som använder sig av ray-tracing. I den bästa fall kan detta ge oss speltitlar som faktiskt kan köra ray-tracing (via DXR vilket är vad UE använder) även på icke RTX kort!

Med DXR så känns det som ett intressant projekt, men i realiteten så kommer de specialanpassade lösningarna i DXR och DirectML förmodligen att vara bättre helt enkelt (Vulkan RT har definitionen VK_NV_ray_tracing sedan 1.1 , vilket betyder att det bara Nvidias hårdvara som kan använda det... För att ta ett exempel, VK_AMD_gpu_shader_int16 används enbart av AMD, men har tagits bort i förmån för VK_KHR_shader_float16_int8 som fungerar för alla . Kan dock befodras till VK_KHR om AMD och Intel också vill vara med) . Har dock inget emot om de skulle möjliggöra access till specifika hårdvaruenheter att experimentera med andra metoder.

Jag ser ingen framtid utan att grafikkort använder RT acceleratorer i hårdvara. Med RT i PS5 och nästa xbox kommer det gå snabbt och det skulle inte förvåna mig att om ~3-5 år så kommer de korten utan acceleratorer att i stort sett glömmas bort.

Permalänk
Skrivet av ClintBeastwood:

Jag hade glömt bort diskussionen i tråden men det var intressant att läsa igen så tackar för att du rotade fram den

Tack själv! Du kämpade tappert
Saknades ju en del info om demot när det släpptes och förundrades över uppståndelsen. Med facit i hand är det alltså inte så konstigt att det var fattigt på den fronten då det aldrig blivit sådant hallabaloo om dom varit helt transparenta...

Skrivet av Radolov:

För folk såg "Vega56 4k 30FPS ray tracing. Släng er i väggen nvidioter. Ray tracing funkar lika bra utan RT cores LOL".
Men sen så såg de att de enbart körde på 1080p men publicerat en video i 4k.
Helt plötsligt är det inte så intressant längre när det krävs ~4x prestandan för att nå de förväntade värdena. 8x om man tar hänsyn till half resolution

Visst är det så, tyvärr får man väl ändå säga.
Och medan jag ändå har dig på "tråden" får jag be o tacka för många bra inlägg från din sida. Roligt när kunniga och samtidigt nyfikna delar med sig /hatten av

Permalänk
Datavetare
Skrivet av Radolov:

4k motsvarar 4*1080p. Halv upplösning motsvarar 0,5 resolution scale. Det betyder att antalet pixlar totalt sett har halverats. Så det är inte 16x mer prestanda som krävs utan 4/0,5=8 ggr mer. Sedan så vet jag inte vad vitsen är att utgå från en spekulation från deras sida.

Nu kan inte jag säga hur fallet är i Cryengine då jag inte har något av de spelen. Så det du skriver kan mycket väl stämma, men är i så fall en väldigt udda definition av "resolution scale".

Om en karta är skala 1:2 (50 %) är det ju längden inte arean som är halv på kartan.

Unreal Engine kör med den vettiga definitionen, d.v.s. 1920x1080 med 50 % resolution scale renderar världen i den förväntande upplösningen 960x540

Video som går igenom resolution scale i UE

Gjorde ett snabbskott i COD:Black ops 4. FPS droppar nästan en faktor fyra om man går från 100 % resolution scale till 200 %, vilket rätt mycket pekar på att man har samma definition av "resolution scale" som UE och världen i stort.

Cryengine kan som sagt köra en annan definition, men den uppskattade prestandaskillnaden mellan ett GTX1080 och vad som borde vara ett RTX-2080Ti låter rätt mycket som man kör med samma definition som de andra. Men skulle kunna vara ett RTX2060/2070 man menade, då stämmer skalning med antal renderade pixlar rätt OK (men varför skulle man jämföra med de korten när man pratar 4k?).

Skrivet av Radolov:

Fast där mäter man inte hur mycket det skiljer i ray-trace prestanda. Flaskhalsen kommer vara en blandning mellan det man gör för ray-tracing och rastrering. Grafen du länkar till är ju för något som både utför ray-tracing och rastering.

Så vinsten med RT-kärnor i fallet att man använder så mycket ray-tracing att det är primärflaskhals, vilket vad det jag avsåg, går inte att utläsa från de graferna. Enda man kan säga är att det är minst så mycket som visas där då det är samma flaskhals vid ren rastrering.

Tidiga versioner av Otoy Octane renderer visade på x2,5 till x5 boost (varierar beroende på exakt vad som är största flaskhals i sccenen) från RT-kärnorna. D.v.s. man jämför samma RTX-kort när den använder respektive inte använder RT-kärnorna.

Skrivet av Radolov:

Med DXR så känns det som ett intressant projekt, men i realiteten så kommer de specialanpassade lösningarna i DXR och DirectML förmodligen att vara bättre helt enkelt (Vulkan RT har definitionen VK_NV_ray_tracing sedan 1.1 , vilket betyder att det bara Nvidias hårdvara som kan använda det...

I så fall har inte Khronos kommer längre än vad de kommit i höstas med detta arbete. Men man lär landa på rätt mycket vad VK_NV_ray_tracing är då det är väldigt nära identiskt med hur DXR fungerar.

Oavsett ändrar det inte hur många spel som använder ett icke-standard API för ray-tracing, för så här långt är det noll spel som använder något annat än DXR.

Skrivet av Radolov:

Jag ser ingen framtid utan att grafikkort använder RT acceleratorer i hårdvara. Med RT i PS5 och nästa xbox kommer det gå snabbt och det skulle inte förvåna mig att om ~3-5 år så kommer de korten utan acceleratorer att i stort sett glömmas bort.

Är nog tyvärr rätt sannolikt att ray-tracing i spel utan dedicerat kisel inte kommer vara värt det. Är nog snarare att man får ställa frågan hur pass mycket nytta man kommer få av RT-kärnorna i dagens RTX-kort (i spel, renderar man på sin dator är RT-kärnorna redan ett rejält fall framåt).

Det som ändå talar för att RTX-korten kommer få lite vettig användning av RT-kärnorna innan de blir obsolete är just hur UE, Unity och möjligen även Cryengine introducerar tekniken (vilket skiljer sig rätt mycket från hur man stoppade in ray-tracing som quick-patches i spel som var på väg ut på marknaden i samband med RTX-lanseringen)!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Är nog tyvärr rätt sannolikt att ray-tracing i spel utan dedicerat kisel inte kommer vara värt det. Är nog snarare att man får ställa frågan hur pass mycket nytta man kommer få av RT-kärnorna i dagens RTX-kort (i spel, renderar man på sin dator är RT-kärnorna redan ett rejält fall framåt).

Det som ändå talar för att RTX-korten kommer få lite vettig användning av RT-kärnorna innan de blir obsolete är just hur UE, Unity och möjligen även Cryengine introducerar tekniken (vilket skiljer sig rätt mycket från hur man stoppade in ray-tracing som quick-patches i spel som var på väg ut på marknaden i samband med RTX-lanseringen)!

De kan ju gå old school? När 3D kom och var omoget existerade det ju som 3D acceleratorer till datorerna. Varför inte göra något liknande för RT?

Är ju egentligen rätt logiskt rycker jag nästan när jag verkligen tänker efter. GPU arean på 2080ti är ju enorm pga allt som ska tryckas in i kislet. Delar man på sakerna borde ju yields öka och då pris osv sjunka. Plus att RT skulle ju enklare funka med billigare och äldre hårdvara egentligen pga RT-kortet sköter den biten.

Eller varför inte göra dubbelmackor? Dvs GPU och RT på ett kort men inte i samma krets bara för att slippa enorm kretsyta. Sen kan man ju ha modeller med "allt i ett". Som RTX korten också förstås.

Aja, får väl se vad som händer.

Skickades från m.sweclockers.com

Visa signatur

| AMD Ryzen 7 5800X3D | Noctua NH-U12A | Gigabyte X570 Aorus Pro | Powercolor Radeon RX 6900XT Red Devil | 16GB G.Skill Trident Z@3600 CL15 | Gigabyte Aorus 2TB M.2 NVMe SSD | Fractal Design Ion+ Platinum 860W | Fractal Design Meshify S2 Blackout | Corsair K70 | Logitech G502 | Alienware AW3423DWF |

Permalänk
Medlem
Skrivet av Zemlan:

De kan ju gå old school? När 3D kom och var omoget existerade det ju som 3D acceleratorer till datorerna. Varför inte göra något liknande för RT?

Är ju egentligen rätt logiskt rycker jag nästan när jag verkligen tänker efter. GPU arean på 2080ti är ju enorm pga allt som ska tryckas in i kislet. Delar man på sakerna borde ju yields och då pris osv sjunka. Plus att RT skulle nu enklare funka med billigare och äldre hårdvara egentligen pga RT-kortet sköter den biten.

Eller varför inte göra dubbelmackor? Dvs GPU och RT på ett kort men inte i samma krets bara för att slippa enorm kretsyta. Sen kan man ju ha modeller med "allt i ett". Som RTX korten också förstås.

Aja, får väl se vad som händer.

Skickades från m.sweclockers.com

Ja det hade varit najs med ett instickskort för Raytracing, med olika antal RT kärnor beroende på prislapp.

Visa signatur

Corsair Obsidian 1000D* Corsair AX1600i* Asus Z790 Prime-A* Intel 13900K* 32GB G-Skill DDR5 7600Mhz/36* Asus RTX 4090* Corsair MP600 1TB* Samsung 980 Pro 1TB

Permalänk
Lyxfällan 🎮

@Defender: det får mig att tänka på Ageias PhysX-kort. Det lät väldigt häftigt och lovande när det presenterades, men slutade bara som en feature på Nvidia-GPU:er.

Visa signatur

"We're with the press, hired geeks!"
Raoul Duke, Fear n' Loathing in Las Vegas

Permalänk
Medlem
Skrivet av loevet:

@Defender: det får mig att tänka på Ageias PhysX-kort. Det lät väldigt häftigt och lovande när det presenterades, men slutade bara som en feature på Nvidia-GPU:er.

https://youtu.be/7GsKdzoBvDk

Det var ju pga att Nvidia köpte upp dem.

Visa signatur

Corsair Obsidian 1000D* Corsair AX1600i* Asus Z790 Prime-A* Intel 13900K* 32GB G-Skill DDR5 7600Mhz/36* Asus RTX 4090* Corsair MP600 1TB* Samsung 980 Pro 1TB

Permalänk
Lyxfällan 🎮

@Defender: Exakt.

Visa signatur

"We're with the press, hired geeks!"
Raoul Duke, Fear n' Loathing in Las Vegas

Permalänk
Medlem
Skrivet av Yoshman:

Nu kan inte jag säga hur fallet är i Cryengine då jag inte har något av de spelen. Så det du skriver kan mycket väl stämma, men är i så fall en väldigt udda definition av "resolution scale".

Om en karta är skala 1:2 (50 %) är det ju längden inte arean som är halv på kartan.

Unreal Engine kör med den vettiga definitionen, d.v.s. 1920x1080 med 50 % resolution scale renderar världen i den förväntande upplösningen 960x540

Video som går igenom resolution scale i UE

Gjorde ett snabbskott i COD:Black ops 4. FPS droppar nästan en faktor fyra om man går från 100 % resolution scale till 200 %, vilket rätt mycket pekar på att man har samma definition av "resolution scale" som UE och världen i stort.

Cryengine kan som sagt köra en annan definition, men den uppskattade prestandaskillnaden mellan ett GTX1080 och vad som borde vara ett RTX-2080Ti låter rätt mycket som man kör med samma definition som de andra. Men skulle kunna vara ett RTX2060/2070 man menade, då stämmer skalning med antal renderade pixlar rätt OK (men varför skulle man jämföra med de korten när man pratar 4k?).

Hmmm, kom ihåg att jag testade dessa saker förut i doom och wolfenstein 2, och mycket väl var det så att de utgick från antalet pixlar. Jag repeterade testerna för 16:9 formaten för tre upplösningar (har endast skrivit antalet pixlar på x-axeln) 1920 , 1600, 1280. I modellen där resolution scale appliceras på båda axlar användes 2560*0,75 för 1920, 2560*0,625 för 1600 och 2560*0,5=1280. I modellen där man utgår från antalet pixlar så fås 2560*0,56= 1920 , 1920*0,7 = 1600 och 1600*0,64=1280. Sedan har dessa upplösningar testats i native och resultaten har jämförts.

Medan modellen där man utgått från antalet pixlar konvergerar ju lägre ner i upplösning man går (detta måste göras för att resolution scale räcker inte till utan stannar vid 0,5) så ökar avståndet samt accelererar i riktning från den. I vanliga fall så så är tre mätpunkter klent, men just i det här fallet kan man enkelt avgöra att det inte stämmer för båda axlar. Sousa, som är lead rendering programmer på ID jobbade tidigare på crytek, varför jag använde doom och wolfenstein 2 när jag testade.

DOOM och Wolfenstein 2 utgår från antalet pixlar.

Resolution scale gås även igenom av DF där många olika tekniker existerar för just resolution scaling. Det finns ingenting som är universellt i den bemärkelsen när det kommer till resolution scale, då olika resultat fås i olika spel.

Det betyder dock att båda hade fel . Men jag tänkte mest på resolution scale i doom det när jag talade om half-resolution. Efter att ha letat runt så verkar det finnas exempel på båda, men reducering på båda axlar är vanligast förekommande.

1 för pixlar (Intel) 3 för båda axlar

Med dessa resultat i beaktning så tror jag att han menar att half-resolution har 1/4 så många pixlar. Jag ser dock inte hur de skulle få 16x prestanda när inte ens NVIDIA verkar tro på det. Det fattas nog 10-30%. Men använder de FP16 kan det nog vara så.
Då är det lite intressant att de säger att med Vega56 så kör de full resolution men behöver ha half-resolution på GTX 1080. Att den kan vara såpass mycket snabbare är imponerande.

EDIT: Utgår man från deras "gigarays" så blev resultatet att det fattades 10-25%. Men utgår man från resultatet i citatet som jag refererar till och går från 1080 --> 2080TI så hamnar den i princip vid 16x.

Skrivet av Yoshman:

Fast där mäter man inte hur mycket det skiljer i ray-trace prestanda. Flaskhalsen kommer vara en blandning mellan det man gör för ray-tracing och rastrering. Grafen du länkar till är ju för något som både utför ray-tracing och rastering.

Så vinsten med RT-kärnor i fallet att man använder så mycket ray-tracing att det är primärflaskhals, vilket vad det jag avsåg, går inte att utläsa från de graferna. Enda man kan säga är att det är minst så mycket som visas där då det är samma flaskhals vid ren rastrering.

Tidiga versioner av Otoy Octane renderer visade på x2,5 till x5 boost (varierar beroende på exakt vad som är största flaskhals i sccenen) från RT-kärnorna. D.v.s. man jämför samma RTX-kort när den använder respektive inte använder RT-kärnorna.

Vilken tur att jag bara kollar på biten som accelereras av RT kärnorna då. Graferna bilder ett mönster av toppar och dalar. Den långa biten i mitten är hälften så lång för 2080 jämfört med 1080ti (detta är intersectiontests). Efter att ha kapat bort DLSS biten och gjort lite stretching, så fås att 2080 vs 2080 med RT cores är någonstans mellan 5x - 8,5x snabbare. Nvidia själva hävdar upp till 10x snabbare än Pascal (nära den undre gränsen). Vad jag vet har aldrig RT cores testats i sammanband med voxelbaserad RT. Man kan inte veta exakt i vilket fall som helst förrän det testats.

"When we enable the dedicated RT Cores on GeForce RTX GPUs, a substantial load is lifted from the shader cores, further improving performance. And when we examine just the ray tracing subset of the graphics workload, RTX 2080 is upwards of 10x faster."

Skrivet av Yoshman:

I så fall har inte Khronos kommer längre än vad de kommit i höstas med detta arbete. Men man lär landa på rätt mycket vad VK_NV_ray_tracing är då det är väldigt nära identiskt med hur DXR fungerar.

Oavsett ändrar det inte hur många spel som använder ett icke-standard API för ray-tracing, för så här långt är det noll spel som använder något annat än DXR.

De har ju visst kommit längre. Innan hade de NVX(periment) och nu är allt fastställt. Om vi får se något spel som använder RT i Vulkan så lär det bli DOOM Eternal, men förmodligen bara om AMD stödjer det med tanke på deras samarbete med Bethesda. Det fanns ju förstås Q2VKPT, men jag tänker mest på nya spel.

Skrivet av Yoshman:

Är nog tyvärr rätt sannolikt att ray-tracing i spel utan dedicerat kisel inte kommer vara värt det. Är nog snarare att man får ställa frågan hur pass mycket nytta man kommer få av RT-kärnorna i dagens RTX-kort (i spel, renderar man på sin dator är RT-kärnorna redan ett rejält fall framåt).

Det som ändå talar för att RTX-korten kommer få lite vettig användning av RT-kärnorna innan de blir obsolete är just hur UE, Unity och möjligen även Cryengine introducerar tekniken (vilket skiljer sig rätt mycket från hur man stoppade in ray-tracing som quick-patches i spel som var på väg ut på marknaden i samband med RTX-lanseringen)!

De kommer att få användas. Jag förväntar att det kommer mer info vid E3 (testa att kolla på Microsofts E3 konferens ). Frågan är dock hur kort tag det är tills 2000-serien ersätts av något bättre från NVIDIA. Jag gissar innan slutet på året.

Permalänk
Medlem
Skrivet av Zemlan:

De kan ju gå old school? När 3D kom och var omoget existerade det ju som 3D acceleratorer till datorerna. Varför inte göra något liknande för RT?

Se detta inlägg där skriver lite om det.

Permalänk
Datavetare
Skrivet av Radolov:

Vilken tur att jag bara kollar på biten som accelereras av RT kärnorna då. Graferna bilder ett mönster av toppar och dalar. Den långa biten i mitten är hälften så lång för 2080 jämfört med 1080ti (detta är intersectiontests). Efter att ha kapat bort DLSS biten och gjort lite stretching, så fås att 2080 vs 2080 med RT cores är någonstans mellan 5x - 8,5x snabbare. Nvidia själva hävdar upp till 10x snabbare än Pascal (nära den undre gränsen). Vad jag vet har aldrig RT cores testats i sammanband med voxelbaserad RT. Man kan inte veta exakt i vilket fall som helst förrän det testats.

Upp till x10 över Pascal för ray-tracing känns rätt rimligt. Stämmer väl med vad jag sett i Blender (som inte kan använda RT-kärnor än, men det ska komma framöver). Turing är nära nog dubbelt så snabb på GPU-rendering jämfört med Pascal om man jämför två modeller med ungefär samma teoretisk FLOPS.

Att man sedan ser x2,5 till x5 extra med RT-kärnor (tror Nvidia sagt "upp till x6" i något läge) ger "upp till x10".

Voxels borde passa RT-kärnorna riktigt bra. Rent matematiskt är ju en voxel samma sak som "axis-aligned bounding box" (AABB). RT-kärnorna är specialdesignade för att hitta lura ut vilken box (AABB eller voxel) en stråle först skär.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer