Skrivet av Ratatosk:
Oj vad blank lacken på bilen var! tänk att man hade tid att putsa så under kriget, likaså soldaternas hjälmar, fina och blankpolerade.
Det är tyvärr ett inneboende problem med raytracing, allt ser orimligt rent och slätt ut. Man får se det positiva, i den raytracade världen behövs inget RUT-avdrag för städning
Skrivet av hakd:
"Enligt Nvidia själva kan ett Turing-baserat grafikkort rendera det Star Wars-demo som visades med cirka 22 bilder per sekund, medan Geforce GTX 1080 Ti landar på strax över tre bilder per sekund."
Nvidia gör vad dom är bäst på, utveckla tekniker så äldre generationers kort blir värdelösa snabbare.
Det luktar Gameworks lång väg när Nvidia började medvetet straffa sina äldre kort och AMDs kort.
10k+ för under 30fps i cutscens, ja folk köper verkligen allt.
Nu vet jag naturligtvis inte om Nvidia anlitat en torped som alltid tvingar dig att slå på alla Gameworks finesser hela tiden. Annars är det faktiskt så att DirectX raytracing (DXR) (som på Nvidias kort implementeras med RTX) är en helt valbar finess, vilket så vitt jag vet varenda Gameworks effekt är.
Visst när du i framtiden klickar i "ultra" så kommer raytracing och säkert en rad andra saker som finns i Gameworks slås på i kommande AAA-titlar. Men det finurliga i PC-spel är att man alltid kan slå av precis de effekter man anser kostar för mycket i förhållande vad de ger i ökad visuell upplevelse (vilket brukar vara en del på "ultra"-nivå...).
Vill man motivera kostnaden för kortet så är det svårt för vissa. Men givet hur många här på SweC som verkar driva sin egen rederings-farm hemma (läst kommentarerna varje gång HEDT CPUerna testas...) så borde vi ju snarare se vågen rulla här på forumet i stället för det massiva gnäll som nu dominerat.
Om det är något Nvidias RT-core kommer göra relativt omgående är det att förpassa CPU-rendering till historien. Även ett RTX 2070 kommer få de snabbaste HEDT-modellerna att framstå som miniräknare när det kommer till rendering, i det läget är ju prislappen för RTX-kortet som hittat!
Skrivet av Xinpei:
Man kan ju börja med att se till att tekniken fungerar innan man släpper den just sayin..
Hur kommer du m.fl. fram till att FPS kommer vara extremt dålig så fort man använder den nya tekniken i Turing?
Självklart kommer det gå långsamt om man fläskar på allt för mycket, men det som explicit nämnes i presentationen är att SMs (som även fortsättningsvis kommer köra "vanliga" shaders), tensor-cores (som i alla fall initialt primärt kommer användas till "deep learning AA") samt rt-cores kan ju användas parallellt.
Så om du har en scen som ger 60 FPS, lägger man då på ljuseffekter så att rt-cores belastas <100 % så kommer man ju få exakt samma FPS då dessa inte är flaskhals. Faktum är att man borde få något högre FPS då SMs inte längre behöver göra saker som SSAO och andra sätt att approximera ljuseffekter.
Kikar man sedan på tensor-cores och specifikt "deep learning AA" (DLAA) så är det en teknik som har potential att öka FPS för det mesta då huvudpoängen med detta är att kunna rendera scenen (alt. bara vissa delar av scenen, t.ex. de i periferin och/eller de objekt med väldigt komplexa shaders associerade med sig) i lägre upplösning. Sedan använder man DLAA för att skala upp upplösningen.
Fick ändå känslan att DLAA nog inte riktigt är färdigutvecklat riktigt än på programvarusidan, men konceptuellt är DLAA en väldigt vettig och teknisk rimlig användning av maskininlärning och det är en teknik som borde förbättra effektiviteten både på SMs och RT-cores.
Det skrivet: kollar man historiskt har nästan alla grafikkortsmodeller som varit först med bandbrytande inte fått jättestort genomslag för den tekniken. Dels då de oftast varit lite för klena att dra nytta av tekniken, dels så har ju de existerande korten på marknaden saknat tekniken.
Det som ändå talar för både användandet av både tensor-cores och rt-cores relativt omgående är att de båda används i tekniker som till stor del kan lägga ovanpå existerande renderingsmotorer! Flaskhalsen här är nog mest att DX12/Vulkan nu krävs, men är inte det vad många längtat efter? Innan detta fanns egentligen ingen teknisk fördel med DX12/Vulkan över DX11 då båda hade exakt samma shader-kapacitet (fram till nu) och fördelen med längre CPU-overhead är meningslös på PC då CPU nästan aldrig är en flaskhals där, till skillnad mot konsoler där motsvarande teknik är ett krav för att kunna köra med CPU-kraft motsvarande en instegsmobil idag.