Crytek demonstrerar ray tracing i realtid med AMD Radeon RX Vega 56

Trädvy Permalänk
Medlem
Registrerad
Mar 2017
Skrivet av CubaCola:

@Radolov: Men även om reflektionen är ifrån vattenpölen så är den väl inte korrekt, då den är alldeles för tydlig emot hur den ser ut i vattenpölen?

Jag vet inte hur implementationen ser ut, de kanske ser det som en speglande yta om det studsar från en diffus yta till en speglande yta. Det kan vara så att enbart strålar som kommer direkt från vattenpölen påverkas. Det är dock i vattenpölen som den vänds upp och ner, då det inte finns något annat ställe där det kan ske.

Här ser det väldigt klart ut.

Skrivet av Galadhnen:

Kolla när spegelytorna här roterar:
https://youtu.be/1nqhkDm2_Tw?t=77

Det skulle kunna ha med ray tracing att göra ändå.
Jag läste på om implementationen av ray tracing från Nvidia, de använder inte någon "temporal data", alltså de jämför inte värden från ray tracing data från tidigare frames. Att göra det kan leda till ghosting. Skulle det kunna vara så att Cryengine valt att göra det och därför få något som liknar motion blur?

Nvidia skrev:
All of the denoisers work on 1-2 sample per pixel input even without temporal reprojection. We don’t have to suffer from the ghosting or other typical issues introduced by temporal filtering.
- https://devblogs.nvidia.com/ray-tracing-games-nvidia-rtx/

Jag bara spekulerar, jag har inte sett några exempel på effekterna så jag kan inte göra en jämförelse med Cryengines demo.

Det är möjligt. Först när kattnudlarna går in i bilden så dupliceras allting för att därefter stabiliseras. Speglarna rör iofs på sig samtidigt.

Det de menar i metro har mer att göra med att det ska se udda ut efter de bytt kameraperspektiv. Det var exemplet som nämndes av metros utvecklare iallafall. Ser inte direkt några tecken på det i deras film.

Trädvy Permalänk
Hjälpsam
Plats
Karlskoga
Registrerad
Jan 2007

Kingdom Come Deliverance, använder sig av Cryengine och SVOGI, det ser onekligen snyggt ut.
Lägg på RT och vi får något som fixar detta demo.
Nu blev jag sugen på att köpa spelet.

AMD Ryzen 7 1700 | Vega RX 64 | 64 GB Corsair @2933 MT/s | https://valid.x86.fr/fgqnte | Stockkylaren | Bitfenix Whisper M 750W.
AMD FX8350 | Polaris RX 460 4 GB | 32 GB Kingston ECC | https://valid.x86.fr/0q5pkm | Cooler Master V 700W.
HTPC | https://valid.x86.fr/ez1zxw |

Trädvy Permalänk
Medlem
Plats
Falkenberg
Registrerad
Jul 2008
Skrivet av Ferrat:

Du kanske missat men det ska enligt uppgift vara realtid på demot, kan ju vara så att bara implementationen de gjort funkar bättre än nvidias cores.
Svårt att säga utifrån ett demo men snopet om så är fallet

En fundering? Är det tekniskt möjligt att göra en realtime på rtx-tekniken och ändå ha förrenderat restan grafiken för att uppnå fint flyt i demon?
Då kan man ju skriva RTX i realtid utan att ljuga.

Trädvy Permalänk
Hjälpsam
Plats
Karlskoga
Registrerad
Jan 2007
Skrivet av EmilH:

En fundering? Är det tekniskt möjligt att göra en realtime på rtx-tekniken och ändå ha förrenderat restan grafiken för att uppnå fint flyt i demon?
Då kan man ju skriva RTX i realtid utan att ljuga.

Det skulle uppfattas som att de ljög.
All deras trovärdighet skulle flyga och fara.

AMD Ryzen 7 1700 | Vega RX 64 | 64 GB Corsair @2933 MT/s | https://valid.x86.fr/fgqnte | Stockkylaren | Bitfenix Whisper M 750W.
AMD FX8350 | Polaris RX 460 4 GB | 32 GB Kingston ECC | https://valid.x86.fr/0q5pkm | Cooler Master V 700W.
HTPC | https://valid.x86.fr/ez1zxw |

Trädvy Permalänk
Medlem
Plats
Zion
Registrerad
Apr 2004
Skrivet av EmilH:

En fundering? Är det tekniskt möjligt att göra en realtime på rtx-tekniken och ändå ha förrenderat restan grafiken för att uppnå fint flyt i demon?
Då kan man ju skriva RTX i realtid utan att ljuga.

Det är så de gör med rtx, det är en begränsad mängd rays som går ut, grunden är fortfarande samma teknik som man sedan kombinerar ihop så man kan få realistiska reflektioner mm.

Skickades från m.sweclockers.com

[ i5-6600K @ 4.7Ghz || Corsair H110 GTX || 16GB DDR4 || ASUS Z170 Pro Gaming || Asus ROG 1080 Strix @ 2100+/11Ghz+ ]
Unigine Superposition 1080p; 17487 @ Medium; 4594 @ Extreme
"One is always considered mad, when one discovers something that others cannot grasp."
- Ed Wood

Trädvy Permalänk
Hjälpsam
Plats
Karlskoga
Registrerad
Jan 2007
Skrivet av Ferrat:

Det är så de gör med rtx, det är en begränsad mängd rays som går ut, grunden är fortfarande samma teknik som man sedan kombinerar ihop så man kan få realistiska reflektioner mm.

Skickades från m.sweclockers.com

Nja, men man tar ju inte och renderar det som inte är RT i förväg.

AMD Ryzen 7 1700 | Vega RX 64 | 64 GB Corsair @2933 MT/s | https://valid.x86.fr/fgqnte | Stockkylaren | Bitfenix Whisper M 750W.
AMD FX8350 | Polaris RX 460 4 GB | 32 GB Kingston ECC | https://valid.x86.fr/0q5pkm | Cooler Master V 700W.
HTPC | https://valid.x86.fr/ez1zxw |

Trädvy Permalänk
Medlem
Plats
Zion
Registrerad
Apr 2004
Skrivet av Ratatosk:

Nja, men man tar ju inte och renderar det som inte är RT i förväg.

Nej det sker troligen så parallellt som möjligt, man vill ju att så mycket uträkningar som möjligt ska ske samtidigt för att minimera tiden någon del får vänta på en annan men du måste sedan föra ihop resultaten för att kunna få ut något av det.

[ i5-6600K @ 4.7Ghz || Corsair H110 GTX || 16GB DDR4 || ASUS Z170 Pro Gaming || Asus ROG 1080 Strix @ 2100+/11Ghz+ ]
Unigine Superposition 1080p; 17487 @ Medium; 4594 @ Extreme
"One is always considered mad, when one discovers something that others cannot grasp."
- Ed Wood

Trädvy Permalänk
Medlem
Registrerad
Okt 2018

@Radolov: har hittat fler konstiga saker när jag kollar på demot igen

när drönaren åker över hylsorna på marken, så saknar 2 av dessa reflektioner (de 2 näst längst till höger 1m30sek in i videon)
men drönaren reflekteras i vattnet vid hylsorna.
dessutom så ser de övriga kulorna väldigt annorlunda ut i reflektionen, nästan som att det vore en 3dmodell med lägre LOD.

sedan vid 1m10sek in i videon så åker drönaren fram emot glasdörren och man ser neonskylten ovanför, och vid 1m14 när drönaren är närmast dörren så speglar sig neonskylten i glaset på dörren, fastän den väl inte borde vara synlig alls då det är en list ovanför dörren i vägen mot neonskylten?

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG278Q 27" 144Hz

Trädvy Permalänk
Medlem
Registrerad
Mar 2017
Skrivet av CubaCola:

@Radolov: har hittat fler konstiga saker när jag kollar på demot igen

när drönaren åker över hylsorna på marken, så saknar 2 av dessa reflektioner (de 2 näst längst till höger 1m30sek in i videon)
men drönaren reflekteras i vattnet vid hylsorna.
dessutom så ser de övriga kulorna väldigt annorlunda ut i reflektionen, nästan som att det vore en 3dmodell med lägre LOD.

Det verkar som hela pölen ej reflekterar alla detaljer fullt ut, eller snarare så att vissa delar får diffus karakteristik. Du kan se när kameran sveper över att detaljer, såsom gult och så på skylten, förvandlas till diffus rosa när det syns på de delar som inte är spegelblanka. Du kan t.ex notera att hylsan längst till vänster inte syns heller.

Eller så kan de glömt att ha med hylsan. ¯\_(ツ)_/¯

Skrivet av CubaCola:

sedan vid 1m10sek in i videon så åker drönaren fram emot glasdörren och man ser neonskylten ovanför, och vid 1m14 när drönaren är närmast dörren så speglar sig neonskylten i glaset på dörren, fastän den väl inte borde vara synlig alls då det är en list ovanför dörren i vägen mot neonskylten?

Denna är lite udda. Det ser ut som den går genom taket (från dörrens perspektiv så är texten spegelvänd, men när du ser på reflektionen så står det "monument inn" helt klart). Så nej, den bör inte synas.

Det hade varit lättare att kontrollera om de hade ett demo som kunde laddas ner.

Trädvy Permalänk
Medlem
Plats
Digital medborgare
Registrerad
Aug 2004
Skrivet av ClintBeastwood:

Nej nej. Jag tror inte att det är fejk utan det jag tvivlar på är prestandan och specifikt prestandan i spel.

Jag tror inte på några fantastiska FPS, men demot får mig att undra lite. Det verkar som det kör i ca 20-40 FPS i 4k. Jag gillar inte att spekulera när man har så pass bristande data som det här.

Jag skiter totalt i verklighetstroget ljus och reflektioner för jag vill ha så många FPS som möjligt, men det är intressant att RTX inte är det enda som kan få det i realtid.

gfårs 1070. 3570K. 16 Gigabong RAM. Server, NAS, pi, steamlink, casts, nätverkssladdar, sega master system, massor av faptops, mus med 17 knappar, öronproppar, strumpor av ren bomull med elastiskt band för att hålla dem uppe. 2 barn, 1 fru, 99 problem.

10nm == 7nm && 10nm != 7nm

Trädvy Permalänk
Medlem
Plats
Digital medborgare
Registrerad
Aug 2004
Skrivet av Xinpei:

Förra generationens kort? Menar du GTX 1000-serien som (enligt Nvidia själva) hade typ fem i FPS i RT? Då inte ens i närheten av 4K (även om det antagligen är uppskalat)?

Menar du att videon är uppskalad eller 1000-seriens RT? Jag tycker inte att det ser ut som videon är det minsta uppskalad. Tydliga kanter på drönaren. (Nu kör jag iofs 1440p)

gfårs 1070. 3570K. 16 Gigabong RAM. Server, NAS, pi, steamlink, casts, nätverkssladdar, sega master system, massor av faptops, mus med 17 knappar, öronproppar, strumpor av ren bomull med elastiskt band för att hålla dem uppe. 2 barn, 1 fru, 99 problem.

10nm == 7nm && 10nm != 7nm

Trädvy Permalänk
Medlem
Plats
Piteå
Registrerad
Jul 2017
Skrivet av kelthar:

Menar du att videon är uppskalad eller 1000-seriens RT? Jag tycker inte att det ser ut som videon är det minsta uppskalad. Tydliga kanter på drönaren. (Nu kör jag iofs 1440p)

Grafiken. Det är alltså inte native 4K. Du vet... det PS4 Pro och Xbox One X ibland gör för att de ska kunna säga "4K" på boxen?

NZXT H440 | Intel i7 7700K @ 5 GHz | Asus strix Z270H Gaming | 16GB Corsair DDR4 3200 mhz | EVGA RTX 2070 Black | 512 GB Samsung Pro 850 SSD | Corsair HX750 |

Trädvy Permalänk
Hjälpsam
Plats
Karlskoga
Registrerad
Jan 2007

Vikipedia om Voxlar, inte allt för svårläst, rekommenderas!
https://en.wikipedia.org/wiki/Voxel

AMD Ryzen 7 1700 | Vega RX 64 | 64 GB Corsair @2933 MT/s | https://valid.x86.fr/fgqnte | Stockkylaren | Bitfenix Whisper M 750W.
AMD FX8350 | Polaris RX 460 4 GB | 32 GB Kingston ECC | https://valid.x86.fr/0q5pkm | Cooler Master V 700W.
HTPC | https://valid.x86.fr/ez1zxw |

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Jan 2009
Skrivet av perost:

De jämför endast vilken prestanda som krävs för att göra motsvarande arbete som RT-kärnorna gör, d.v.s. om man inte har RT-kärnor så krävs ungefär 10 TFLOP per Gigaray. Det betyder inte att RT-kärnorna faktiskt utför 10 TFLOP per Gigaray, utan hela poängen med dem är att kunna göra beräkningarna på ett effektivare sätt än att bara bruteforcea dem med CUDA-kärnor. Prestandan för RT-kärnorna räknas alltså främst i Gigaray/s och inte TFLOP/s, eftersom det intressanta är hur många strålar per sekund som kan beräknas.

CUDA-kärnorna (och AMDs motsvarighet) är designade att utföra samma operationer på en stor mängd data, eftersom rastrering främst är ett dataparallellt problem. Ray tracing är istället främst ett uppgiftsparallellt problem då strålarna kräver olika beräkningar beroende på hur de studsar, så traditionella grafikkort lämpar sig ganska illa för ray tracing. Men det går förstås att göra ray tracing på grafikkort utan RT-kärnor också, de är bara inte särskilt effektiva på det.

Däremot så ligger tensorkärnorna på ett 2080 Ti faktiskt på ungefär 100 TFLOPS, men de är då helt specialiserade på att utföra operationen D = A * B + C där A, B, C och D är 4x4-matriser.

Har vi någon konkret information om hur RT-kärnorna accelererar BVH-sökningen?
Jag har... kanske inte lusläst hela Nvidias Turing Architechture Whitepaper, men allt där som har med ray tracing har jag läst och det finns ingen konkret, teknisk förklaring hur en RT-kärna gör beräkningarna annorlunda.

De visar upp nedanstående:

- Nvidia Turing Architecture Whitepaper

Där kallar de det "emulation" (lite nedlåtande) i Pascal och "acceleration" (låter fint) i Turing men pekar inte på något annat än att:
1. En RT-kärna delar upp arbetet i två dedikerade enheter: en hanterar BVH-sökning genom trädet av bounding-boxar, och när den lägsta nivån identifieras tar andra enheten vid och beräknar vilken triangel som träffas av strålen
2. SM befrias från arbetet iom att RT-kärnorna gör jobbet

Vi skulle, troligen hyfsat tryggt, kunna anta att RT-kärnor gör arbetet mer effektivt (operationer per Giga Ray) än om man hade exakt samma beräkningskraft tillgänglig via en massa SM utan RT-kärnor, men med tanke på att t.ex. begrepp som "CUDA cores" används kanske mer för marknadsföring än något annat (Gamers Nexus ft. David Kanter) så tänker jag inte helt och hållet nöja mig med det. Jag vill ha konkret, teknisk fakta.

Så när Nvidia säger att Pascal spenderar 10 TFLOPS per Giga Ray, men sen inte nämner något om hur faktiskt effektivt deras nya RT-kärnor hanterar samma operationer... då undrar jag om de undanhåller information av en anledning. För de jämför äpplen och päron när de säger "Pascal: 10 TFLOPS = 1 Giga Ray" ||| "Turing: 68 RT cores = 10 Giga Rays".

Har någon här en källa som har någon teknisk information om hur RT-cores gör BVH-sökningen mer effektivt, gärna beskrivet i operationer per Giga Ray eller beräkningskraft per RT-core.

Trädvy Permalänk
Medlem
Plats
Flen
Registrerad
Jul 2001

@Galadhnen: Kan vara intressant att se en spelutvecklare utvärdera Nvidias utbud/teknik, särskilt nu när DXR rullar på Pascal, Volta och Turing utan RT-kärnor.

Trädvy Permalänk
Medlem
Plats
Sölvesborg
Registrerad
Nov 2009

Nu är det ett tag sedan jag läste det, men är det inte Vega-arkitekturen som lagt fokus på FP16?
Dvs Vega är optimerad för flytal med "låg precision"?

Om jag förstått det rätt så har Nvidias RTX-kort mycket bättre FP16-förmåga än sina GTX-varianter. Det får mig att tro att RT-kärnor helt enkelt är en fin omskrivning av FP16-kärna

Trädvy Permalänk
Medlem
Registrerad
Nov 2018
Skrivet av Petterk:

AMDs Rays-motor körs väl på OpenCL (1.2), men Cryengine kör säkert Vulkan plus eventuellt OpenCL på AMD-kort. Behöver inte vara OpenCL om de kör egenutvecklad teknik heller. De har säkert stöd för flera olika apier också.

De körde demon i DX12.

Trädvy Permalänk
Medlem
Registrerad
Nov 2018
Skrivet av Xinpei:

Förra generationens kort? Menar du GTX 1000-serien som (enligt Nvidia själva) hade typ fem i FPS i RT? Då inte ens i närheten av 4K (även om det antagligen är uppskalat)?

Vilket inte vore direkt konstigt om detta är i någon form av alphastadium ännu. Däremot som koncept är det ytterst intressant eftersom det eventuellt visar att man inte behöver alls RT-cores för att driva Raytracing.. något Nvidia vill påstå.

Korrekt men samtidigt visar denna demo att man ändå kan få en viss prestanda utan RT-cores. Ungefär samma prestanda som Nvidia visade upp just vid avtäckning av Raytracing innan optimeringar i t.ex. BF V kickat in.

Vilken tur att vi antagligen kommer att kunna köra denna demo själva sen då.
Eftersom Crytek själva säger att de kommer att optimera för "performance enhancing GPUs".
Sen är det ju bara att jämföra kort med dedikerad hårdvara gentemot kort utan denna hårdvara.

Trädvy Permalänk
Medlem
Registrerad
Nov 2018
Skrivet av dpom86:

@ClintBeastwood: Nästan; jag säger att det är rimligt, men du får det att låta orimligt, och jag ser inte varför.

Du har inte get något argument angående varför det skulle vara orimligt är vad jag satte pekpinnen mot.
Att det sker så pass nära inpå RTX är inte ett logiskt grundat argument pekade jag ut.
Därav kallade jag det paranoia, fast det var fel ordval av mig; någon slags logical fallacy är det ju snarare.

Att ett företag som håller på att gå under samtidigt som de släpper titlar med urusel optimering ska komma på den bästa ray tracing lösningen känns ganska långsökt faktiskt.

Trädvy Permalänk
Medlem
Registrerad
Aug 2015
Skrivet av Yoshman:

Om man väljer sin scen, framförallt de ytor som genererar reflektioner, på ett sätt att strålar som passerar pixels nära varandra på skärmen med relativt stor sannolikhet fortsätter att vara parallella när man följer dem in i scenen så fungerar det riktigt bra att köra hela ray trace algoritmen i "vanliga" shaders.

Några saker man ser i demon som gör strålarna rätt koherenta är: spegelblanka ytor (räcker med en stråle ut, infallsvinkel lika med utfallsvinkel). Om ytan ger en diffus reflektion måste man dels generera flera reflektionsstrålar och deras utfallsvinkel kommer vara olika för i princip alla strålar -> kräver i praktiken något likt RT-kärnor.

Plana ytor: om objekten inte är plana får ju även blanka ytor spridning av strålar då riktningen på sekundärstrålen är en funktion av riktningen på den yta som reflekterar strålen.

Finns riktigt jobbiga objekt också, tänk dig en kristallkrona. Visserligen plana ytor men varje gång en stråle passerar en gräns glas/luft så ska den delas upp i två, en som reflekteras och en som transmitteras. och när dessa strålar träffar nästa gränsskikt ska de i sin tur delas upp.

Blir väldigt många strålar att hålla reda på efter bara ett fåtal studsar.

Ska vi sen ta med dispersion/interferens... då duger det inte att jobba med bara R,G,B komponenter utan vi behöver ha ett helt spektra i varje stråle. Har inte koll på riktigt hur många färgkomponenter man behöver i så fall men skulle tro mellan 10 och 100 för att det ska se snyggt ut.

Trädvy Permalänk
Datavetare
Plats
Stockholm
Registrerad
Jun 2011
Skrivet av Galadhnen:

Vi skulle, troligen hyfsat tryggt, kunna anta att RT-kärnor gör arbetet mer effektivt (operationer per Giga Ray) än om man hade exakt samma beräkningskraft tillgänglig via en massa SM utan RT-kärnor, men med tanke på att t.ex. begrepp som "CUDA cores" används kanske mer för marknadsföring än något annat (Gamers Nexus ft. David Kanter) så tänker jag inte helt och hållet nöja mig med det. Jag vill ha konkret, teknisk fakta.

Så när Nvidia säger att Pascal spenderar 10 TFLOPS per Giga Ray, men sen inte nämner något om hur faktiskt effektivt deras nya RT-kärnor hanterar samma operationer... då undrar jag om de undanhåller information av en anledning. För de jämför äpplen och päron när de säger "Pascal: 10 TFLOPS = 1 Giga Ray" ||| "Turing: 68 RT cores = 10 Giga Rays".

Har någon här en källa som har någon teknisk information om hur RT-cores gör BVH-sökningen mer effektivt, gärna beskrivet i operationer per Giga Ray eller beräkningskraft per RT-core.

Enda Nvidia egentligen säger här är att om man kör BVH-beräkningarna på CUDA-kärnor skulle det behövas ~10 TFLOPS (och för att vara exakt, 10 TFLOPS på Pascal, det blir en mindre siffra på Turing då CUDA-kärnorna där är bättre på att hantera "generella" beräkningar).

På hög nivå händer detta vid BVH-beräkning: man skickar en stråle från öga/kamera genom varje pixel på skärmen. För varje sådan stråle behöver man sedan hitta vad den först kolliderar med. Så här långt fungerar det riktigt bra på CUDA-kärnor!

Sedan börjar problemen. Beroende på om strålen inte träffar något, träffar en yta som är blank/ej blank, slät/skrovlig samt genomskinlig/ej genomskinlig händer lite olika saker.

CUDA-kärnor har 32 st "kärnor" som delar på samma exekveringstillstånd, SIMD (Nvidia föredrar att kalla det SIMT för single instruction multiple threads). En sådan design är väldigt effektiv så länge som alla trådar på dessa kärnor till största del kör samma väga genom programmet, något som ofta är fallet för rastrering.

CUDA-kärnor kan hantera fall som ser ut så här

if (predicate) { do_a(); } else { do_b(); }

Men då 32 st kärnor delar exekveringstillstånd och några evaluerar predicate till sant medan andra evaluerar det till falsk implementerar man det så att både do_a() och do_b() körs och dessa måste köras i sekvens (de kan inte köras parallellt då det bara finns ett exekveringstillstånd).

När man kör do_a() blir koden i praktiken en trave "gör ingenting" instruktioner för alla trådar där predicate evaluerades till falskt.

Ray tracing är i grunden en rekursiv algoritm, så en splitt mellan do_a()/do_b() betyder att trådarna som tar olika vägar i praktiken konvergerar först när hela beräkningen är klar.

Så 10 TFLOPS är teoretisk kapacitet som krävs i Pascal CUDA-kärnor behöver, men är långt mindre som används då en stor andel av CUDA-kärnorna kommer köra "gör inget" så fort man passerat en punkt där strålarna divergerat. T.ex. en stråla träffar en blank yta som genererar en reflektionsstråle medan en annan träffar en skrovlig yta som måste skicka ut flera reflektionsstrålar i olika riktningar.

"Magin" hos RT-kärnorna är att de har ett exekveringstillstånd per kärna, de implementerar MIMD ungefär som en multi-core CPU. För att hålla antalet transistorer på en vettig nivå gör RT-kärnorna bara en väldigt specifik uppgift.

Så hade man bara kunna fläskat på med fler CUDA-kärnor? Absolut, men för just BVH-beräkningar hade det tagit långt fler transistorer och ström än att stoppa in ett gäng RT-kärnor. Problemet med RT-kärnorna är att hitta rätt balans mellan dessa och CUDA-kärnor, samt att RT-kärnorna inte har speciellt stor användning utanför BVH-beräkningar.

Fast att mängden s.k. "dark silicon" ökar är ingen nyhet, det är faktiskt ett krav för att kunna göra något vettigt med allt mindre transistorer då Dennard scaling inte längre finns. Utan viss mängd "dark silicon" skulle effekten på riktigt täta kretsar bli totalt ohållbar idag, tricket är att stoppa in "rätt" mix av funktioner så en lagom mängd kisel är aktivt vid varje relevant arbetslast.

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Trädvy Permalänk
Datavetare
Plats
Stockholm
Registrerad
Jun 2011
Skrivet av SAFA:

Finns riktigt jobbiga objekt också, tänk dig en kristallkrona. Visserligen plana ytor men varje gång en stråle passerar en gräns glas/luft så ska den delas upp i två, en som reflekteras och en som transmitteras. och när dessa strålar träffar nästa gränsskikt ska de i sin tur delas upp.

Blir väldigt många strålar att hålla reda på efter bara ett fåtal studsar.

Ska vi sen ta med dispersion/interferens... då duger det inte att jobba med bara R,G,B komponenter utan vi behöver ha ett helt spektra i varje stråle. Har inte koll på riktigt hur många färgkomponenter man behöver i så fall men skulle tro mellan 10 och 100 för att det ska se snyggt ut.

Helt rätt. I ett spel kan man ändå använda ray tracing om man ser till att välja sina objekt så att effekter likt det du beskriver ovan inte händer.

Vi är rätt mycket i "sökfasen" kring hur spel lämpligen använder ray tracing. Även med "RTX" stöd blir det helt orealistiskt att förvänta sig att man bara kan slå på ray tracing och förvänta sig att det flyter på fint. Vad man måste hitta är vad som kräver rimlig mängd beräkningar men ändå ger en fin visuell utdelning, övertygad att man kommer hitta allt fler sådan fall. Men som alltid kommer det ta längre tid än vad man vill hoppas på.

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Trädvy Permalänk
Medlem
Plats
Digital medborgare
Registrerad
Aug 2004
Skrivet av Xinpei:

Grafiken. Det är alltså inte native 4K. Du vet... det PS4 Pro och Xbox One X ibland gör för att de ska kunna säga "4K" på boxen?

Jo, vi vet alla vad uppskalning är. Men du syftade alltså på videon. Det var lite oklart om du syftade på videon eller om du menade DLSS. Det var det jag frågade i min fråga om du missförstod den.

Varför tror du att det är uppskalat. Står det någonstans eller?

gfårs 1070. 3570K. 16 Gigabong RAM. Server, NAS, pi, steamlink, casts, nätverkssladdar, sega master system, massor av faptops, mus med 17 knappar, öronproppar, strumpor av ren bomull med elastiskt band för att hålla dem uppe. 2 barn, 1 fru, 99 problem.

10nm == 7nm && 10nm != 7nm

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Jan 2009

@Yoshman:
Tack för svaret!

Lägligt nog fick jag i princip den info jag ville ha från Gamers Nexus:
https://www.youtube.com/watch?v=bfyBtGXU41I

Riktigt intressant!

Trädvy Permalänk
Medlem
Registrerad
Jul 2016

Crytek’s Ray Tracing Demo Wasn’t Fully Ray Traced

https://www.techquila.co.in/cryteks-ray-tracing-demo-fake/

"In My Defens God Me Defend"

Trädvy Permalänk
Hjälpsam
Plats
Karlskoga
Registrerad
Jan 2007
Skrivet av Bl4ckIce:

Crytek’s Ray Tracing Demo Wasn’t Fully Ray Traced

https://www.techquila.co.in/cryteks-ray-tracing-demo-fake/

Nej, det är inte heller de spel som stödjer RTX.

AMD Ryzen 7 1700 | Vega RX 64 | 64 GB Corsair @2933 MT/s | https://valid.x86.fr/fgqnte | Stockkylaren | Bitfenix Whisper M 750W.
AMD FX8350 | Polaris RX 460 4 GB | 32 GB Kingston ECC | https://valid.x86.fr/0q5pkm | Cooler Master V 700W.
HTPC | https://valid.x86.fr/ez1zxw |

Trädvy Permalänk
Medlem
Plats
Linköping
Registrerad
Jun 2007
Skrivet av Ratatosk:

Nej, det är inte heller de spel som stödjer RTX.

Det finns Quake 2 som är helt ray traceat, men det är väl också det enda än så länge.

Men jo, ingen har påstått att Cryteks demo var helt ray traceat, det står ju t.o.m. i denna Sweclockers-artikel att så inte är fallet.

Trädvy Permalänk
Medlem
Registrerad
Jul 2016

Star Wars RTX Raytraced Reflections Demo
Ladda ner här -> https://www.techpowerup.com/download/nvidia-star-wars-rtx-ray...

"In My Defens God Me Defend"

Trädvy Permalänk
Hjälpsam
Plats
Karlskoga
Registrerad
Jan 2007
Skrivet av Bl4ckIce:

Star Wars RTX Raytraced Reflections Demo
Ladda ner här -> https://www.techpowerup.com/download/nvidia-star-wars-rtx-ray...

Kompletterar med de andra två de nämner.
https://www.techpowerup.com/download/atomic-heart-geforce-rtx...
https://www.techpowerup.com/download/justice-geforce-rtx-rayt...

https://www.techpowerup.com/254541/nvidia-also-releases-tech-...

AMD Ryzen 7 1700 | Vega RX 64 | 64 GB Corsair @2933 MT/s | https://valid.x86.fr/fgqnte | Stockkylaren | Bitfenix Whisper M 750W.
AMD FX8350 | Polaris RX 460 4 GB | 32 GB Kingston ECC | https://valid.x86.fr/0q5pkm | Cooler Master V 700W.
HTPC | https://valid.x86.fr/ez1zxw |