Ny teknik i all ära, men spelen måste gå hand i hand med hårdvaran. För er som säger att man kan stänga av raytracing på ett RTX2080Ti så stämmer det ju, men tänk vad man kunnat använda kretsytan till istället? Kanske 30-40 % fler Cudakärnor istället för Tensorkärnor och kan användas för att få högre beräkningskraft. Frågan är om Raytracing släpptes för tidigt. Bara för att man har spenderat massor på R,&D så betyder inte att tekniken var redo för att släppas.
Skickades från m.sweclockers.com
Fast släpptes verkligen Nvidia RT- och Tensor-kärnor för tidigt? Peka i så fall på någon annan lika stor teknikförändring inom GPU (och även CPU) som på mindre än ett år (RTX-serien lanserades 20 september 2018) fått det stöd som framförallt Tensor-kärnorna fått, men även RT-kärnorna.
Samma tid efter att HW T&L släpptes (1999. Geforce 256) var ju den tekniken fortfarande i praktiken helt oanvänd.
“For artists, getting different texture maps prepared and baked for 3D painting is time-consuming. RTX-accelerated bakers in Substance Painter deliver up to 192x faster performance than CPU for ambient occlusion and 10-15x overall performance gain when baking all maps,” said Sébastien Deguy, vice president of 3D and Immersive at Adobe. “We believe NVIDIA RTX ray tracing performance is a game-changer, significantly reducing the time for baking, so artists can quickly iterate between modeling and painting, and bring better designs to life faster.”
Fundera vad ovan betyder i praktiken, var enda spelstudio sitter med väldigt stor sannolikhet med maskiner där RTX-kortet är en självklarhet. Det ger Nvidia fördelar även om man inte implementerar DXR då Turing testas rejält. Att "baka ljus" är ju något man kommer slippa när GPUer kan göra motsvarande i realtid via t.ex. DXR, men för nu är det ett nödvändigt ont som äter mycket tid/resurser. Vad är inte då x10-15 prestandaförbättring värt!?!
På mindre än ett år har RTX-korten gjort CPUer helt irrelevanta för rendering. De var på väg ut redan innan p.g.a. GPGPU, men RTX-korten har lagt ribban på en helt ny nivå (Turing är klart snabbare än Pascal på saker som ray tracing även utan att använda RT-kärnor, Turing har en mer effektiv mikroarkitektur för GPGPU).
Många sa att öppna projekt som Blender nog skulle få vänta på RTX-stöd under väldigt lång tid. Nog sant om Nvidia lämnat det till "community", men de inser både marknadsvärde och PR-värde från att lägga in ett sådan stöd så det dök upp på mindre än ett år.
Folk verkar ha totalt orealistiska förväntningar på hur lång tid det tar för ny teknik att etablera sig. Alla insåg potentialen i GPGPU, ändå tog det över ett decennium för det att ta fart. HW-T&L var också en teknik som alla insåg var framtiden, möjligen höll inte Intel med då SSE initialt var riktat mot just det (i senare versioner breddades användningsområdena rätt ordentligt och idag är SSE/AVX välanvänt, men även där tog det många många år).
Flera CPU-kärnor kunde de första åren lika gärna ge sämre prestanda som en förbättring, idag är användningen mycket utbredd och i princip inget ser längre en försämring av prestanda när antalet kärnor ökar (förutsatt att frekvensen är densamma).
Ovan betyder däremot inte att Turing med RTX är en självklarhet för spel. Vore nästan konstigt om man lyckas få till något som faktiskt är användbart i någon större skala i något så pass krävande som RTRT i spel i ett första försök! Vad man kan hoppas på är lite smakprov, eller "gimmicks" om man tycker det känns bättre att lägga fram det på det sättet.
Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer