Battlefield V får stöd för Nvidia DLSS

Permalänk
Medlem

Najs för mig dock som bara lirar BFV. DLSS blir trevligt med fler FPS.

Visa signatur

AMD Ryzen 9 CPU 3950X + Asus Ryujin 360 AIO, ROG Crosshair VIII Formula X570 PSU Corsair AX1200i, Kingston Fury Beast 32GB DDR4 /3600 MHz - Phantek NV7, Merc6950XT 16GB - LG OLED55C36LC 55" 4K C3 OLED 120Hz 4K + LG TV 55" 55NANO866NA IPS 120Hz 4K (Game ATMOS 5.1.2 (Dynaudio /Monitor Audio speakers + only MWIII :-)

Permalänk
Medlem
Skrivet av SCORPIUS:

Köp nvidia och få följande.

1. Ont i plånboken.
2. Stress, var är effekterna jag blev lovad?
3. Åh kolla, nu kom TR i massa.. eh ett spel.. och det var ju.. kul?
4. Woho.. nu kom DLSS med i en massa.. eh ett spel och det var ju.. kul?
2. Fortfarande ont i plånboken.

Vi som nu har ont i plånboken tar självklart emot varenda liten funktion som kan rättfärdiga vårt köp och dämpa smärtan.

Permalänk
Medlem
Skrivet av Yoshman:

Grunden för ray-tracing algoritmen är:

för alla pixels på skärmen: skicka en stråle in i scenen och lura ut vilken triangel strålen först träffar

DLSS är mycket riktigt helt frikopplat från ray-tracing som teknik sett, man kan ju se DLSS som ett alternativ till checkerboard rendering för nå t.ex. 4k på lite enklare GPUer.

Men då effekten av DLSS är att man behöver hantera färre pixels blir effekten på ray-tracing-prestanda rätt stor just då det minskar antalet varv i den yttersta loopen.

Ska bli spännande att se om man når dit EA/Nvidia get en vink om: d.v.s. att RTX 2060 ska fixa BFV med ray-tracing på low/medium i 2560x1440 i över 60 FPS när man slår på DLSS...

Råkar du möjligtvis veta var i DLSS+DXR modellen denoise sker för DXR?
Jag kan tänka mig att DXR utan DLSS är något i stil med:
Rastrering av spelet i den fulla upplösningen+ AA till bild1
Ray trace i "full upplösning" till bild 2, sedan denoise på bild 2.
Slå ihop bild 1 och 2.

Medan i DLSS så blir det(?):
Rastrering av spelet i lägre upplösning till bild1.
Ray trace i "lägre upplösning" till bild 2.
Slå ihop bild 1 och 2. Uppskala med DLSS och låt AI:n "denoisa" i uppskalning.
(Alternativt uppskala dem var för sig och sedan slå ihop)

eller blir det:
Rastrering av spelet i lägre upplösning till bild1.
Ray trace i "lägre upplösning" till bild 2, sedan denoise på bild2.
Slå ihop bild 1 och 2. Uppskala med DLSS.

Det vore toppen om man kunde få in denoise biten i uppskalningen för att spara in tid. Jag märkte på ett ställe att DXR har för mycket noise i vanliga fall, medan med DLSS blir det ett vågmönster av det hela som ändå är hyfsat acceptabelt i just det fallet (kolla på staketet).

Permalänk
Medlem
Skrivet av roosterx:

Nu är det ju så att för att man ska få nya funktioner så måste HW finnas först, så har det alltid varit, när jag köpte mitt första 3D kort på 90 talet, ett 3DFX Voodoo (1) fanns det typ 1-2 spel som stöda riktig 3D, men ju flera som köpte korten, och alla andra producenter så ljuset i tunneln(ATi, Nvidia, S3, Matrox etc)ju flera utvecklare för spel såg värdet i att lägga ner så mycket pengar i att utveckla spel, och till sist fick dom flesta spel användning för 3D.

När 3DFX korten kom var dom för tiden oerhört dyra, jämfört med vad folk normalt ville lägga på en dators grafikkort, på den tiden var det nästan räknat som lyx att ha en dator hemma, och nästintill ingen fattade varför jag ville betala för att ha fast linje till internet(genom 2 st 28800 modem på hyrt telefonlinje).

Om 5 år använder säkert nästan alla spel någon funktion från RTX korten.

Frågan är dock hur användbara RTX 2000-korten kommer att vara när det är maimstream? Kommer vi ens använda Nvidias implementation? Jag har tidigare dragit paralleller till PhysX som också var värdelöst i början men numera är fysik implementerat i massor av spel. Det blev dock inte gjort via PhysX och i slutändan är det ingen som väljer Nvidia på grund av PhysX-stöd.

Skickades från m.sweclockers.com

Permalänk
Hjälpsam
Skrivet av roosterx:

Nu är det ju så att för att man ska få nya funktioner så måste HW finnas först, så har det alltid varit, när jag köpte mitt första 3D kort på 90 talet, ett 3DFX Voodoo (1) fanns det typ 1-2 spel som stöda riktig 3D, men ju flera som köpte korten, och alla andra producenter så ljuset i tunneln(ATi, Nvidia, S3, Matrox etc)ju flera utvecklare för spel såg värdet i att lägga ner så mycket pengar i att utveckla spel, och till sist fick dom flesta spel användning för 3D.

När 3DFX korten kom var dom för tiden oerhört dyra, jämfört med vad folk normalt ville lägga på en dators grafikkort, på den tiden var det nästan räknat som lyx att ha en dator hemma, och nästintill ingen fattade varför jag ville betala för att ha fast linje till internet(genom 2 st 28800 modem på hyrt telefonlinje).

Om 5 år använder säkert nästan alla spel någon funktion från RTX korten.

Fast när 3DFx kom med sina kort fanns ju nästan bara Doom sedan Quake.
Tycker också skillnaden var större.

DX12 har ännu inte slagit.
Finns nästan ingen som kodar för DX12, nu räknar jag inte någon typ av DX12 wrapper ovanpå DX11, jag menar att man kodar för DX12 från början.
Varför? jo därför att fortfarande kan bara hälften av de möjliga kunderna använda DX12, till stor del pga att W7 fortfarande är nästan är lika vanligt som W10, vilket krävs för DX12.
Det kostar tid och pengar att koda för två användartyper, billigare att koda för en, de som kan köra DX11, det är därför vi har så få DX12 spel ute, trots att det släpptes sommaren 2015.
Ok! runt hälften av användarna kan använda DX12, men utvecklarna kodar ändå inte för dem, det är fortfarande bara hälften, vilket är för lite.

Åter till RTX
Hur många procent av de möjliga kunderna äger ett RTX-kort?
Varför skall man koda för en så liten grupp?
Enda skälet till att BFV har RT, är därför att Nvidia betalt Dice för att införa det.
Om inte Nvidia betalar för det, kommer ingen att införa RT de närmaste åren, och inte ens Nvidia, har hur mycket pengar som helst.

edit
Finns också en risk för sen spelutvecklare att slå på stora trumman för en teknik som nästan ingen har.
Är nog ganska många kunder som tänker "Ok BFV har DXR, men mitt kort stödjer ju inte DXR, så jag har ingen glädje i att köpa BFV, bättre för mig att fortsätta spela BF1".

edit2
https://www.youtube.com/watch?v=3dbiT13U8_E

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Ratatosk:

Hur många procent av de möjliga kunderna äger ett RTX-kort?
Varför skall man koda för en så liten grupp?
Enda skälet till att BFV har RT, är därför att Nvidia betalt Dice för att införa det.
Om inte Nvidia betalar för det, kommer ingen att införa RT de närmaste åren, och inte ens Nvidia, har hur mycket pengar som helst.

Nja, det är väl ingen (konsument/tillverkare/distributör/återförsäljare) i västvärlden som tycker att det är en bra ide om vi uppnått ett status quo där all ytterligare teknisk landvinning är förkastlig. Det strider liksom mot den demokratiskt kapitalistiska regeln #1 om att ekonomin måste växa. Och växa måste även nVidia enligt de som äger bolaget. Så jag spår att detta kommer ordna sig med fortsatt marknadsföring, gerillakrigföring och aggresivare prisstrategier. Som jag sagt förut så är problemet pris/prestanda. Funktionerna är sjukt intressanta men nVidia behöver sänka priserna så fler kan och vill leka med detta. Och det kommer ske. Snart gissar jag.

Visa signatur

There are two kinds of people. People you drink with and people who make you want to drink.

Permalänk
Medlem
Skrivet av inquam:

Problemet är att ... Risken för synliga visuella artefakter och att modellen gissar fel när den skall approximera pixlar när den skalar upp bilden ökar.

Jag är väl medveten om det, och Nvidia också, men prestandan (dvs bildfrekvensen) blir bättre!
Jag kommenterade inte bildkvaliteten.

Permalänk
Datavetare
Skrivet av Radolov:

Medan i DLSS så blir det(?):
Rastrering av spelet i lägre upplösning till bild1.
Ray trace i "lägre upplösning" till bild 2.
Slå ihop bild 1 och 2. Uppskala med DLSS och låt AI:n "denoisa" i uppskalning.
(Alternativt uppskala dem var för sig och sedan slå ihop)

eller blir det:
Rastrering av spelet i lägre upplösning till bild1.
Ray trace i "lägre upplösning" till bild 2, sedan denoise på bild2.
Slå ihop bild 1 och 2. Uppskala med DLSS.

Vet inte.

Gissar ändå på att första alternativet är närmare sanningen. Detta då Nvidia pushar DLSS som en teknik man kan addera som ett post-processing steg till existerande lösningar. D.v.s. de lyfter fram att det är något man relativt enkelt kan slå av/på då det är ett separat steg.

Skrivet av thomas_skane:

Frågan är dock hur användbara RTX 2000-korten kommer att vara när det är maimstream? Kommer vi ens använda Nvidias implementation? Jag har tidigare dragit paralleller till PhysX som också var värdelöst i början men numera är fysik implementerat i massor av spel. Det blev dock inte gjort via PhysX och i slutändan är det ingen som väljer Nvidia på grund av PhysX-stöd.

Hur användbara RTX 2000-serien kommer vara när väl ray-tracing slår igenom på bred frånt är en väldigt relevant fråga.

Går ju dra paralleller till HW-T&L där det inte fanns stöd i den DX-version som var aktuell när GeForce256 lanserades. Likt DXR lanserades en fungerande DX-version strax efter lansering av GPU-HW.

När väl HW-T&L var en standardfiness gick det i.o.f.s. att använda även på GeForce256, men prestandamässigt var det rätt hugget som stucket om man körde T&L på CPU eller på en GeForce256 i det läget. Här skiljer sig ändå ray-tracing, RT-kärnorna ger en prestandavinst över att göra motsvarande i shaders eller på CPU som är långt större än vinsten för HW-T&L på de tidiga GPUerna med den funktionen.

Parallellen med PhysX haltar därför betänkligt. På PC har det aldrig varit en bra idé att köra fysik på GPU då man är typiskt betydligt mer GPU-bunden än man är CPU-bunden. Fysik är något som egentligen passar lika bra för CPU som GPU, framförallt om man utnyttjar SSE/AVX (vilket PhysX gjort sedan länge).

På konsoler där CPU är flaskhals kan det däremot vara vettigt att köra fysik på GPU. Fysik är tacksam ur aspekten att det är något som fungerar bra både på CPU och GPU.

Ray-tracing kan definitivt köras både på CPU och GPU, men utan speciellt HW-stöd (RT-kärnor) är det överhuvudtaget inte realistiskt att göra det i realtid i en spelmotor. GPUn behöver sina CUDA/stream-cores för rastrering och CPUer har inte i närheten tillräckligt med rå flyttalskapacitet för att göra det i realtid.

Skrivet av Ratatosk:

Finns nästan ingen som kodar för DX12, nu räknar jag inte någon typ av DX12 wrapper ovanpå DX11, jag menar att man kodar för DX12 från början.
Varför? jo därför att fortfarande kan bara hälften av de möjliga kunderna använda DX12, till stor del pga att W7 fortfarande är nästan är lika vanligt som W10, vilket krävs för DX12.
Det kostar tid och pengar att koda för två användartyper, billigare att koda för en, de som kan köra DX11, det är därför vi har så få DX12 spel ute, trots att det släpptes sommaren 2015.
Ok! runt hälften av användarna kan använda DX12, men utvecklarna kodar ändå inte för dem, det är fortfarande bara hälften, vilket är för lite.

Åter till RTX
Hur många procent av de möjliga kunderna äger ett RTX-kort?
Varför skall man koda för en så liten grupp?
Enda skälet till att BFV har RT, är därför att Nvidia betalt Dice för att införa det.
Om inte Nvidia betalar för det, kommer ingen att införa RT de närmaste åren, och inte ens Nvidia, har hur mycket pengar som helst.

edit
Finns också en risk för sen spelutvecklare att slå på stora trumman för en teknik som nästan ingen har.
Är nog ganska många kunder som tänker "Ok BFV har DXR, men mitt kort stödjer ju inte DXR, så jag har ingen glädje i att köpa BFV, bättre för mig att fortsätta spela BF1".

Kravet på DX12/Vulkan är garanterat största hindret för att ray-tracing ska hitta in i spel.

Tror däremot inte marknadsandelen av RTX-kort är något större hinder. Det fina med ray-tracing är att algoritmen är i grunden riktigt simpel, långt enklare än få motsvarande effekter med shaders ihop med rastrering.

Ihop med "hybrid-rendering", vilket är den enda form ray-tracing lär användas i spel under rätt lång tid framöver, är det relativt enkelt att lägga till / ta bort ray-tracing för reflektioner, skuggor eller refraktion (refraktion lär nog vad det sista man stoppar in, är ju inte jättemycket i normalvärlden som påverkas men i det fall refraktion ändå har relevans är det något man nästan måste hantera via ray-tracing).

Tror inte Win7 är det största bromsklossen för bred introduktion av DX12/vulkan. Bekymret ligger i stället i att man primärt löst ett problem som visade sig inte existera i någon större utsträckning på PC

DX12/Vulkan kan minska trycket på CPU på lite olika sätt. Men vad hjälper det när CPU väldigt sällan är någon större flaskhals på en gaming-PC? Framförallt när det är mer komplicerat att använda DX12 jämfört med DX11 och innan DXR fanns det inget på shadernivå som inte kunde utföras i båda APIerna som gav en visuell skillnad.

Och även om DX12 + stark GPU + svag CPU visar viss fördel mot DX11 så har ingen uppvisat något gigantisk skillnad så här långt.

Det lite ironiska här är att DX12/Vulkan passar egentligen bäst för en plattform som MacOS/iOS där det är en rätt liten variation på HW. Men där valde man Metal, vilket i sin tur är den lösning man borde valt på PC. Metal är mer som DX11 där man ändå har möjlighet att göra saker som "async shaders" och liknande, d.v.s. mer högnivå men ändå en modern och aktuell abstraktion av dagens GPU-design.

DX12/Vulkan är i min mening en designmässig "dumpster fire". Det man får hoppas på är att spelindustrin ändå kan få till vettiga abstraktioner ovanpå dessa lågnivå APIer alt. att det kommer uppföljare snart som rättar till misstagen.

Måste ändå finnas ett allt större tryck på att komma ifrån DX11 just då det APIet inte kan utnyttja dagens GPUer till deras fulla potential.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Olle P:

Jag är väl medveten om det, och Nvidia också, men prestandan (dvs bildfrekvensen) blir bättre!
Jag kommenterade inte bildkvaliteten.

Nej, bryr man sig inte om försämrad bildkvalitet för högre fps så är det en sak. Tyvärr är det inte så man marknadsfört DLSS.
Vi har haft detta utbyte länge. Skruva ner grafikinställningar, kör ditt spel i 720p så kommer det gå snabbare. Eller testa 1x1 pixel så kommer alla på servern vara avundsjuk på hur många fps du får i CS. Men för de flesta så spelar utseendet roll.

För GPU tillverkare brukade det vara det också. "4K Ultra!!!" var vad man marknadsförde. Nu har man ändrat sig rätt marknat.
Först, "fps är inte det viktiga. Vi "måste" prata om prestanda på ett nytt sätt... gigarays bla bla bla". Lycka till med det efter 20 år med att drilla folk om hur viktigt fps är.

När detta blir lite uppenbart så komemr man med "DLSS fixar fps:en, lite sämre bildkvalitet är inte så viktigt".

Så båda saker man tidigare slagit på stora trumman som de viktiga aspekterna, fps och bildkvalitet (ink upplösning) är nu inte det viktiga. Förutom att fps ändå är det så vi har DLSS som fixar det... men...

Om man bortser ifrån hur komplicerat det kommer bli att opartiskt granska och jämföra GPU:er med en sådan inställning så framstår det också som vilt viftande med armarna ifrån några som tidigare framståt som väldigt tydliga.

Visa signatur

Huvudriggen är en Gigabyte Aorus Xtreme | 128gb DDR5 6000 | Ryzen 7950X | 3080Ti
Utöver det är det för många datorer, boxar och servar för att lista :P

Permalänk
Medlem

Vore ju bättre om de fokuserade på att implementera ett fungerande anti-cheat istället. Och banna folk som man rapporterat 10 gånger med videobevis.

Visa signatur

E-penis:
i9 9900k @ 5hz | Aorus Master Z390 | 2x16GB Corsair 3200 LPX | ASUS ROG STRIX GeForce RTX 3080 10GB | Phateks Evolv X | EVGA SuperNOVA G2 750W | Corsair H115i PRO | 6TB HDD | Asus MG279Q 27" | Asus Claymore Core | Logitech G403/G35 | Windows 10 Pro x64

Permalänk
Medlem

I slutändan är det ju en smaksak om huruvida du får en bättre upplevelse utan dlss eller med dlss + rt med snyggare effekter.

Och implementeringen i just BF behöver ju inte vara optimal, så jag väntar tills fler titlar kommer ut innan jag säger bu eller bä om det.

Skickades från m.sweclockers.com

Visa signatur

I got a pair of shoes older than you are... -W. Gibson

Permalänk
Medlem
Skrivet av Yoshman:

Hur användbara RTX 2000-serien kommer vara när väl ray-tracing slår igenom på bred frånt är en väldigt relevant fråga.

Går ju dra paralleller till HW-T&L där det inte fanns stöd i den DX-version som var aktuell när GeForce256 lanserades. Likt DXR lanserades en fungerande DX-version strax efter lansering av GPU-HW.

När väl HW-T&L var en standardfiness gick det i.o.f.s. att använda även på GeForce256, men prestandamässigt var det rätt hugget som stucket om man körde T&L på CPU eller på en GeForce256 i det läget. Här skiljer sig ändå ray-tracing, RT-kärnorna ger en prestandavinst över att göra motsvarande i shaders eller på CPU som är långt större än vinsten för HW-T&L på de tidiga GPUerna med den funktionen.

Parallellen med PhysX haltar därför betänkligt. På PC har det aldrig varit en bra idé att köra fysik på GPU då man är typiskt betydligt mer GPU-bunden än man är CPU-bunden. Fysik är något som egentligen passar lika bra för CPU som GPU, framförallt om man utnyttjar SSE/AVX (vilket PhysX gjort sedan länge).

På konsoler där CPU är flaskhals kan det däremot vara vettigt att köra fysik på GPU. Fysik är tacksam ur aspekten att det är något som fungerar bra både på CPU och GPU.

Ray-tracing kan definitivt köras både på CPU och GPU, men utan speciellt HW-stöd (RT-kärnor) är det överhuvudtaget inte realistiskt att göra det i realtid i en spelmotor. GPUn behöver sina CUDA/stream-cores för rastrering och CPUer har inte i närheten tillräckligt med rå flyttalskapacitet för att göra det i realtid.

Problemet med den analysen är att den bygger på att både mjukvara och hårdvara ser ut som den gör idag.

När PhysX först kom var det stora argumentet just att använda ett särskilt PhysX-kort för att avlasta din CPU som ansågs alldeles för långsam för fysik. Senare ville Nvidia flytta funktionen till grafikkortet just med argumentet att grafikkort har mer beräkningsprestanda och att CPU behöver avlastas.

Idag vet vi att fysik lika gärna kan köras på din CPU och att din CPU har processkraft i spel så att det räcker och blir över. Idag vet vi att vad du skriver är sant och att fysik på grafikkortet inte var en superidé. Ännu löjligare är idén att ha ett särskilt beräkningskort i datorn för PhysX, som var originaltanken. Men vid tiden PhysX var flugan så var snacket helt annorlunda. Då var de flesta processorer enkärniga eller kanske tvåkärniga.

Min poäng är där att vi ännu inte vet hur vi ska implementera raytracing på ett bra sätt. Nvidias lösning är än så längre föga imponerande samtidigt som det tar upp en hel del kisel (tillsammans med AI) som kunnat användas till mer generell beräkningskraft. AMD samtidigt påstår att raytracing kan köras på deras kort utan dedikerat kisel. I sämsta fall där har du ett kort som i alla fall är bra på beräkningar. Är Nvidias metod rätt väg vinner dem prestanda men har dem fel kommer en stor del av deras GPUer att vara värdelösa.

Skickades från m.sweclockers.com

Permalänk
Medlem

VAr är DLSS patchen? Fortfarande inget!

Visa signatur

r_wateralpha 0.3

Permalänk
Datavetare
Skrivet av thomas_skane:

Problemet med den analysen är att den bygger på att både mjukvara och hårdvara ser ut som den gör idag.

När PhysX först kom var det stora argumentet just att använda ett särskilt PhysX-kort för att avlasta din CPU som ansågs alldeles för långsam för fysik. Senare ville Nvidia flytta funktionen till grafikkortet just med argumentet att grafikkort har mer beräkningsprestanda och att CPU behöver avlastas.

Idag vet vi att fysik lika gärna kan köras på din CPU och att din CPU har processkraft i spel så att det räcker och blir över. Idag vet vi att vad du skriver är sant och att fysik på grafikkortet inte var en superidé. Ännu löjligare är idén att ha ett särskilt beräkningskort i datorn för PhysX, som var originaltanken. Men vid tiden PhysX var flugan så var snacket helt annorlunda. Då var de flesta processorer enkärniga eller kanske tvåkärniga.

Min poäng är där att vi ännu inte vet hur vi ska implementera raytracing på ett bra sätt. Nvidias lösning är än så längre föga imponerande samtidigt som det tar upp en hel del kisel (tillsammans med AI) som kunnat användas till mer generell beräkningskraft. AMD samtidigt påstår att raytracing kan köras på deras kort utan dedikerat kisel. I sämsta fall där har du ett kort som i alla fall är bra på beräkningar. Är Nvidias metod rätt väg vinner dem prestanda men har dem fel kommer en stor del av deras GPUer att vara värdelösa.

Skickades från m.sweclockers.com

När PhysX först såg dagens ljus, vilket enligt Wikipedia var 2001, var kunskapen kring hur man effektivt använde SSE/SSE2 rätt minimal (fast SSE hade funnits sedan 1999). Utan SSE/SSE2 stöd var det rätt kämpigt för dåtidens CPUer att fixa spelfysik i realtid på den nivån PhysX visade upp.

Men det går ändå inte att jämföra med ray-tracing i realtid. Skillnaden i ray-tracing prestanda mellan ett RTX-kort och en high-end desktop CPU idag är långt mycket större än skillnaden i prestanda mellan CPU och ett PhysX kort 2001.

Från den dagen konsumentdatorer utrustades med multi-core CPUer har man i praktiken kunna gjort det PhysX försökte med dedicerat instickskort. Är den detaljen jag tycker är rätt viktig när man försöker ställa det mot RT-kärnorna.

Är ju uppenbart att även Turing kan köra ray-tracing på CUDA-kärnorna. Är långt bättre GPU-renderings prestanda i t.ex. Blender med Turing jämfört med Pascal och där används inte RT-kärnorna.
Men det för att kunna göra ray-tracing i realtid i en spelmotor behövs i praktiken dedicerat kisel. Dels handlar det om "hybrid-rendering" så rastrering drar ett väldigt tungt lass, man kan då inte offra en massiv mängd kraft från CUDA/stream-kärnorna till att köra ray-tracing.

Dels krävs är det rätt olika optimeringar på kiselnivå som ska till för att effektivt hantera rastering (dataparallellt problem, hög bandbredd kritiskt, latens inte jätteviktigt) konstra ray-tracing (uppgiftsparallellt problem, låg latens kritiskt, bandbredd inte jättekritiskt).

Kan mycket väl vara så att RT-kärnorna inte är tillräckligt, men det är något åt det hållet som måste till för att det överhuvudtaget ska fungera. De ray-tracing program börjat använda RT-kärnorna ser ju 4-5 gånger högre prestanda jämfört med att enbart använda CUDA-kärnor (och det är jämfört med att använda 100 % av CUDA-kärnorna då sådana program inte gör rastrering parallellt).

Edit: missade ett till rätt kritisk detalj som skiljer dessa två fall.
Fysikberäkningar ligger normalt sätt bland de första uppgifterna i en spel-pipeline, det inträffar innan 3D-data skyfflas över till GPUn. D.v.s ingen stor nackdel att göra detta på en separat krets alt. på CPU.

Gör man ray-tracing m.h.a. hybrid-rendering delar ray-tracing och rastrering lämpligen på geometri (DXR kräver inte detta, men är en rätt uppenbar optimeringen som är rätt underförstådd). När RT-kärnorna hittat en matchade triangel ska den ju hanteras, något som i DXR sköts av en speciell "shader", d.v.s. ett program som körs på CUDA-kärnorna.

Finns alltså en väldigt stark koppling mellan data som CUDA-kärnorna måste ha och den data RT-kärnorna måste ha. Något som gör det svårt att separera dessa på ett sätt så de inte längre delar RAM/cache. DXR tillåter absolut en sådan separation, men det ska ju göra effektivt i kisel/programvara!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hjälpsam

Jag tycker att Nvidia kunde gjort detta mycket smartare.

De kunde;

  1. Implementerat DXR på Pascals Cuda kärnor.

  2. Betalat några utvecklare för att implementera vissa effekter i RT, men inte mer än att Pascal orkat med detta.

  3. Efter det att några spel med RT effekter släppts, kan man konstatera att det ser snyggare ut. men att det givetvis kostar prestanda.

  4. Då släpper Nvidia bomben, vi har tagit fram kort med med dedikerat hårdvara för DXR!

  5. Alla blir jävligt tacksamma och kysser Jen-Hsun Huangs hand.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av MarkSix:

Vi som nu har ont i plånboken tar självklart emot varenda liten funktion som kan rättfärdiga vårt köp och dämpa smärtan.

Sedan försöker man spela MP med det och inser att FPSen blir kraftigt lidande. Så det rättfärdigar inte direkt ett köp i dagens läge.

Skrivet av Er1kssoN:

Vore ju bättre om de fokuserade på att implementera ett fungerande anti-cheat istället. Och banna folk som man rapporterat 10 gånger med videobevis.

"Fungerande anti-cheat". För det har ju man inte försökt med gång på gång?

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Datavetare
Skrivet av Ratatosk:

Implementerat DXR på Pascals Cuda kärnor.

Fast hur gör man det effektivt då CUDA-kärnorna är optimerade för dataparallella problem (vilket är perfekt match för typiska rastreringsshader) medan ray-tracing är uppgiftsparallellt?

Skrivet av Ratatosk:

Betalat några utvecklare för att implementera vissa effekter i RT, men inte mer än att Pascal orkat med detta.

Det borde man gjort för Turing. Men givet hur på vippen det är att kunna köra detta med RT-kärnor som är kiseloptimerade för exakt den paralllellism som behövs för ray-tracing vore det helt meningslöst att göra för Pascal.

Å andra sidan släpptes både rastrering i HW och HW-T&L innan det egentligen fanns stöd i spel och bibliotek, gick ju rätt bra i slutändan ändå...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hjälpsam
Skrivet av Yoshman:

Fast hur gör man det effektivt då CUDA-kärnorna är optimerade för dataparallella problem (vilket är perfekt match för typiska rastreringsshader) medan ray-tracing är uppgiftsparallellt?

Det borde man gjort för Turing. Men givet hur på vippen det är att kunna köra detta med RT-kärnor som är kiseloptimerade för exakt den dataparalllellism som behövs för ray-tracing vore det helt meningslöst att göra för Pascal.

Kanske inte via Cuda då, men Pascal kan ju köra RT, jag vet dock inte exakt hur. Nvidia har uppgett 6 gånger lägre prestanda för GTX1080Ti jämfört med RTX2080Ti, det räcker för lite lätt DXR.

Citat:

Å andra sidan släpptes både rastrering i HW och HW-T&L innan det egentligen fanns stöd i spel och bibliotek, gick ju rätt bra i slutändan ändå...

Fast T&L fanns väl i mjukvara innan den kom till hårdvara.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Ratatosk:

Kanske inte via Cuda då, men Pascal kan ju köra RT, jag vet dock inte exakt hur. Nvidia har uppgett 6 gånger lägre prestanda för GTX1080Ti jämfört med RTX2080Ti, det räcker för lite lätt DXR.

Turing har dedikerade RT-kärnor (och Tensor-kärnor för t.ex. DLSS) utöver de vanliga Cuda-kärnorna, medan Pascal endast har Cuda-kärnor. D.v.s. RT-kärnorna på ett 2080 Ti är enligt NVIDIA ca 6x snabbare än all prestanda på ett 1080 Ti. För att få ut ens 10% av ray tracing-prestandan från ett 2080 Ti så skulle man alltså behöva offra nästan hälften av prestandan på ett 1080 Ti.

Permalänk
Hjälpsam
Skrivet av perost:

Turing har dedikerade RT-kärnor (och Tensor-kärnor för t.ex. DLSS) utöver de vanliga Cuda-kärnorna, medan Pascal endast har Cuda-kärnor. D.v.s. RT-kärnorna på ett 2080 Ti är enligt NVIDIA ca 6x snabbare än all prestanda på ett 1080 Ti. För att få ut ens 10% av ray tracing-prestandan från ett 2080 Ti så skulle man alltså behöva offra nästan hälften av prestandan på ett 1080 Ti.

Japp, men det skulle fungera för enkla effekter.
Och som sagt, skulle Nvidia efter ett tag, komma som räddaren i nöden och säga, - "via har RT kärnor!".
Det här handlar om fösa fårskocken framåt, ingen hållbar lösning.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Datavetare
Skrivet av Ratatosk:

Kanske inte via Cuda då, men Pascal kan ju köra RT, jag vet dock inte exakt hur. Nvidia har uppgett 6 gånger lägre prestanda för GTX1080Ti jämfört med RTX2080Ti, det räcker för lite lätt DXR.

GTX 1080 Ti har ~6 gånger lägre prestanda när den inte använder sina resurser till något annat än ray-tracing jämfört med RTX 2080 Ti när den kör "hybrid rendering" som till en klar majoritet lastar RT-kärnorna för just ray-tracing delen.

Lägg nu på att båda korten utöver detta även ska hantera rastrering. RTX 2080 Ti har rätt mycket kraft kvar i CUDA-kärnorna, men hur ska man lösa det för GTX 1080 Ti?

Om man nu inte kör ray-tracing via CUDA-kärnorna på GTX 1080 Ti, vilka alternativ finns? CPU?
Antag att Blender ger en hyfsad vink om GPU vs CPU kraft för att hantera ray-tracing, de tester jag gjort pekar på att ett GTX 1080 Ti är mer än dubbelt så snabb som en 2700X (det när båda gör absolut inget förutom ray-tracing).

Och även om man försöker köra på en datacenter server kvarstår ju fortfarande problemet att rätt mycket måste rastreras. Hur löser man "hybrid rendering" om rastrering och ray-tracing inte sker på kisel som delar RAM/cache?

Har inte majoriteten av gnället kring RTX handlat om att även med RT-kärnor är det inte snabbt nog? Hur skulle man då överhuvudtaget kunna göra något vettigt med ett gäng heltalsfaktorer mindre kraft?

Skrivet av Ratatosk:

Fast T&L fanns väl i mjukvara innan den kom till hårdvara.

Ray-tracing i programvara finns ju också idag, men det är inte i närheten att vara realtid

"Heliga-gralen" man är jagar hos ray-tracing är att algoritmen är i grunden så otroligt enkel, ändå kan den hantera effekter som är väldigt komplexa att efterlikna i rastrering. Problemet med ray-tracing är mängden beräkningar som krävs samt att de är av fel "typ" jämfört med vad dagens GPUer är optimerade för.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Permalänk
Medlem

Ser ut som en tioåring ritat.

Mutta herra joumala!

Visa signatur

2x Xeon E5-2699 v4, 256gb Quad Channel RAM, 2x nVIDIA 980ti
----
AMD Ryzen 5950X, 128gb Dual Channel RAM, 2x AMD 6900XT
----
Massiv amiga och 3dfx-samling.

Permalänk
Hjälpsam
Skrivet av dblade:

Verkar så.

"Wednesday, February 13th
Battlefield V Quality of Life Tracker
Our Devs have confirmed fixes on some of the top issues, so make sure to check out the updated wiki page on Wednesday to see what's fixed, what's new, and what the status is of ongoing issues.
RELEASE
Battlefield V Chapter 2: Lightning Strikes Update #3
DISCUSSION
Battlefield V Chapter 2: Lightning Strikes Update #3 - Share your constructive feedback/suggestions after checking out the blog."

https://forums.battlefield.com/en-us/discussion/180350/this-w...

Update notes.
"PC-Specific Improvements
• This update includes further optimizations to DXR ray tracing performance and introduces
NVIDIA DLSS to Battlefield V, which uses deep learning to improve game performance while
maintaining visual quality."
http://eaassets-a.akamaihd.net/dice-commerce/Casablanca/Updat...

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Trist när de som skriver nyheter skriver fel datum.

Visa signatur

r_wateralpha 0.3

Permalänk
Hjälpsam
Skrivet av Datanisse:

Trist när de som skriver nyheter skriver fel datum.

Den tolfte var över hela nätet, så det var inte enbart Sweclockers som blev lurade.
Men i dag skall patchen komma.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Something is up nu, stor rackare till uppdatering, dags att köpa större SSD...

Nyfiken much? :p
Permalänk
Medlem

Jag gör säkert fel men när jag aktiverar DLSS så blir allt bara suddigt och dålig upplösning :/

har ett 2080ti

Permalänk
Medlem

Ja det blev inte någon bra upplevelse. Sen trodde jag att man kunde köra dlss utan rt.

Skickades från m.sweclockers.com

Visa signatur

Battlefield: sscrappyy

Permalänk
Medlem

Hur aktiverar man DLSS? inställningen är inte valbar för mig.