Skrivet av perost:
Du överskattar nog grovt vad NVIDIA åstadkommit, för det handlar inte om att NVIDIAs kort helt plötsligt kommer kunna rendera fotorealistisk grafik i spel. Star Wars-videon som länkades tidigare körde t.ex. på en NVIDIA GDX med 4 st. Tesla V100, renderade i 24 fps, och var en blandning av ray tracing och "vanlig" rendering. Det var ju dessutom en väldigt begränsad miljö med relativt lite att rendera. För ett mer realistiskt exempel på vad vi kan förvänta oss så kan du kolla på detta demo av Metro Exodus.
Helt sant att den scenen demonstrerades i mars i år och då användes fyra st. Tesla V100. Man visade samma demo igen på Siggraph, fast nu körande på Turing och då klarades samma scen av med ett enda kort!
"This Star Wars-themed demo stunned when it made its debut earlier this year running on a $70,000 DGX Station powered by four Volta GPUs. Now you can see the same interactive, real-time ray tracing using Unreal Engine running on the NVIDIA RTX platform on a single Turing Quadro GPU."
Skrivet av perost:
Sen handlar det inte heller om att NVIDIA RTX helt plötsligt gjort ray tracing i realtid möjligt, enligt Sweclockers artikel så är Turing "bara" 6x snabbare på realtidsrendering jämfört med föregående generation. Det är en bra utveckling men inte någon revolution, det behövs mycket mer kraft innan vi kommer få se något som liknar fotorealistisk realtidsrendering i spel.
Det som var otydligt i SweC artikel du länkade är vad "föregående generation" refererade till. Jag förutsatte, nog som de flesta, att man refererade till Pascal. Det gjorde man inte, man refererade till Volta. Jämfört med Pascal är skillnaden 25x.
"NVIDIA is stating that the fastest Turing parts can cast 10 Billion (Giga) rays per second, which compared to the unaccelerated Pascal is a 25x improvement in ray tracing performance."
Skrivet av SuperNova:
Jag tror folk missförstår upplägget...
Det är ju inte så att nvidia släpper kort som kör spel i full raytracing, det finns ju inte en chans!
Om det inte är planen så har i alla fall jag helt missförstått syftet med Nvidias "RT cores".
Skrivet av SuperNova:
Eller tror folk på riktigt att nvifia släpper ett kort för 10.000 som kan ersätta hela rendereringsfarmar?
Ett kort kommer inte ersätta en hel farm, men om Nvidia säger här är sant
så har man precis släppt teknik som gjort CPU lika irrelevant för rendering som 3D-grafikkorten en gång i tiden gjorde CPU totalt irrelevant för rastering.
De tidiga 3D spelen som t.ex. ursprungliga Doom gjorde all rastrering på CPU, en av syftena med MMX var att accelerera rastrering, men det blev aldrig relevant då GPUerna som kom vid samma tidsperiod var lågt effektivare för detta.
Börjar förstå Intels brådska med att ta fram en egen GPU, Nvidia kommer plocka marknadsandel i datacenter från Intel då man nu har en produkt som är totalt överlägsen CPU för renderingsfarmar (har i.o.f.s. ingen aning om hur stor den marknaden är sett till omsättning).
Skrivet av SuperNova:
Raytracing är ju inget nytt precis. Jag tolkar det som att nvidias RT-kärnor kommer sköta vissa fuktioner för renderering lite som physx gjorde för fysik fast ex för reflektioner.
Det är väl bara köra matten om npgon är sugen för hur mycket beräkningskraft som behövs för att åstakomma 100% raytracing i ett spel :). Fan ensamma kort har ju svårt att hålla stadig fps @ 4k med konventionella rendereringsmetoder.
100 % raytracing är det väl ingen som pratat om? Huvudsyftet med Direct X Raytracing är ju att göra det möjligt att fortsätta använda triangelbaserad rastrering, men förhöja realismen m.h.a. raytracing för vissa specifika effekter och initialt lär man antagligen bara använda tekniken på en delmängd av scenen.
Som jag förstår tekniken borde det vara väldigt lätt för speltillverkare att göra tekniken valbar. Har man inte en GPU med "RT cores" eller motsvarande får man helt enkelt köra "gamla sättet" (SSAO) i stället för att beräkna motsvarande effekt via raytracing. Skillnaden visualiseras i denna video
Skrivet av Niczo:
Var nånstans står det att DXR kommer att dra nytta av Nvidias hårdvaruaccelerering för raytracing? Måste erkänna att de tekniska detaljerna går mig till spillo men är inte DXR en GPGPU-lösning för raytracing som körs på traditionella arkitekturer?
Som jag förstått det hela så är APIet som Nvidia använder i Gamework Ray Tracing just DirectX Raytracing.
"This suite of tools and resources for developers will dramatically increase realism and shorten product cycles in titles developed using the new Microsoft DXR API and NVIDIA RTX."
Här kan man ju tolka det som att Gameworks Ray Tracing använder DXR eller RTX, men detta är vad Nvidia skriver om RTX
"The RTX platform provides software APIs and SDKs running on advanced hardware to provide solutions capable accelerating and enhancing graphics, photos, imaging and video processing. These include: Ray Tracing (OptiX, Microsoft DXR, Vulkan)"
D.v.s. RTX är Nvidias teknik för att implementera DXR (och även motsvarande i Vulkan), men APIerna man exporterar till spel är standard-APIer i DirectX och Vulkan. Verkar som OptiX bygger på CUDA och är det API som används för renderings-servers.
RTX verkar för närvarande bestå av tre huvudnivåer
allt i vanliga shaders, detta är vad Pascal och tidigare kommer använda
AI-baserad filtrering, "denoising". Detta utförs m.h.a. tensor cores och minskar antalet strålar som faktiskt behöver följa. Volta, Turing och senare krävs för detta
Göra strålföljningen i HW i form av RT core + AI-baserad filtrering, är bara Turing som har stöd för detta så här långt
Så RTX kan man se som Nvidias driver som bl.a. implementerar DirectX raytracing, vilket är exakt hur AnandTech beskriver det
"Intended to enable real-time ray tracing for games and other applications, RTX is essentially NVIDIA's DXR backend implementation."
Tycker det en väldigt viktig detalj som alltid faller bort när drevet går mot Gameworks. Ja, Gameworks självt är ett gäng proprietära bibliotek som Nvidia skrivit.
Men så vitt jag vet är alla Gameworks finesser valbara. Visst slås många på i höga inställningar men man har alltid valet att stänga av de man anser äter för mycket prestanda (d.v.s. ingen borde rimligen tvingas använda någon Gameworks finess). Och självklart väljer Nvidia att lägga sådant i Gameworks som visar deras produkter från sin bästa sida när de ställs mot konkurrenterna, men Gameworks använder så vitt jag känner till uteslutande standard APIer i DirectX (och börjar väl komma även för Vulkan?).