Crytek demonstrerar ray tracing i realtid med AMD Radeon RX Vega 56

Permalänk
Medlem
Skrivet av huxflux:

Gammal o gammal, vad 2-3 år innan utvecklare började ta fram det i demos och spel?

I varje fall så är det ca 6 månader sen Nvidia gick ut med vad som krävs för raytracing. Är jag helt felt ute med att säga att du inte ens kan aktivera det i något annat nvidia grafikkort än RTX serien?

Skickades från m.sweclockers.com

Raytracing är något man gjort sedan flera år tillbaka, 3D program kan rendera så, en variant av det är hur wolfenstein och doom skapade fejk 3D världar.

Det har även funnits i gamla motorer, speciellt i moddade sådana men drar som sagt enorma resurser, det nvidia gjort är att skapa kretsar som kan göra de uträkningarna snabbar, tänk samma tensor cores, compute cores etc etc. Det är alltså inget nytt, bara en ny hårdvaru implementation som gör det snabbare för att den är utvecklad för just det, lite som att shaders fanns innan man insåg att de var smidigare att göra specifika delar som skötte de.

Anledningen att raytracing kostar så fasligt är att det mer eller mindre måste göras så mycket checks, i grunden är det bokstavligen att dra en linje från "kameran" kolla varje x enheter om linjen krockat med något och isf vad, med reflektioner speciellt så måste den sedan studsa vidare, sedan måste man back-tracka hela den vägen och räkna ut hur pixeln ska se ut tillsammans med allt annat.
Och det går ju inte bara att kasta ut en "ray" utan man måste kasta ut väldigt många och då blir det extremt kostsamt.

Visa signatur

"One is always considered mad, when one discovers something that others cannot grasp."
- Ed Wood

Permalänk
Medlem
Skrivet av ClintBeastwood:

Hahaha, paranoia.. vad surrar du om? Enligt dig är det troligt och jag tror inte att prestandan kommer vara i närheten med förra generationens kort i spel. Ja, vi får se.

Skickades från m.sweclockers.com

Förra generationens kort? Menar du GTX 1000-serien som (enligt Nvidia själva) hade typ fem i FPS i RT? Då inte ens i närheten av 4K (även om det antagligen är uppskalat)?

Skrivet av wowsers:

Enbart ett objekt som faktiskt flyttar på sig, 20-30 fps, bilddjup som baseras från polygoner istället för ray tracing (DoF blir inte realistiskt), enbart en studs från vad som syns.

Prestandan verkar definitivt inte vara helt 100 men jag är ändå otroligt intresserad av att veta hur dom lyckades klämma ut så mycket från ett vega 56.

Vilket inte vore direkt konstigt om detta är i någon form av alphastadium ännu. Däremot som koncept är det ytterst intressant eftersom det eventuellt visar att man inte behöver alls RT-cores för att driva Raytracing.. något Nvidia vill påstå.

Skrivet av Ferrat:

Fast att det "går" att köra raytracing är ju inget nytt? Det är ju en extremt gammal teknik som nyttjades innan rasterisering, problemet är ju just att den är så tung att köra.

Korrekt men samtidigt visar denna demo att man ändå kan få en viss prestanda utan RT-cores. Ungefär samma prestanda som Nvidia visade upp just vid avtäckning av Raytracing innan optimeringar i t.ex. BF V kickat in.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem
Skrivet av Esseboy:

Har du sett videon? Väldigt detaljerad ljussättning i mina ögon, bättre än vad Nvidias RTX klara av i spel!

Jag har sett den. Tur att spelmotorn även fungerar på nvidiakort.
Med lite tur så kommer de säkert använda turing-chipsetet för att snabba upp sina beräkningar.

Har du sett de gamla raytracingdemona till äldre AMD / Nvidia-korten? Även där fantastisk ljussättning.
Testa även att ladda hem demot Fairlight - photon för att testa raytracing på valfritt grafkkkort.

Skickades från m.sweclockers.com

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem
Skrivet av Xinpei:

Förra generationens kort? Menar du GTX 1000-serien som (enligt Nvidia själva) hade typ fem i FPS i RT? Då inte ens i närheten av 4K (även om det antagligen är uppskalat)?

Exakt.

Citat:

..och kan enligt uppgift drivas av de flesta moderna grafikkorten från både AMD och Nvidia.

Men det har ju Crytek fixat nu..
Skickades från m.sweclockers.com

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem
Skrivet av dpom86:

Men det är ju det jag säger, det är en dålig anledning för den håller inte 100% rent logiskt. Jag har sett flera personer skriva om just "dedikerad hårdvara" nu. Men ingen verkar fatta att en stor del av problemet för nVidia just var att det var extremt svårt att komma på hur man ska accelerera detta i hårdvara. De lyckades, vilket är mycket imponerande på flera sätt, men det utesluter inte på långa vägar att detta är möjligt med smartare mjukvara. Flera drar hela tiden den falska slutsatsen att just det faktum att det finns dedikerad hårdvara betyder att det vore mycket långsammare utan den. Det är inte ett givet faktum just till stor del för att det är ett problem som det är svårt att utveckla dedikerad hårdvara till, vilket med god sannolikhet betyder att den dedikerade hårdvaran egentligen inte alls är speciellt effektiv, vilket allt vi sett av RTX hittills också verkar styrka. Sett till hur många transistorer/beräkningspotential som sänks in i problemet så verkar den bara vara något mer effektiv än de mjukvarualgoritmer som fanns hittills. Det känns därför inte alls konstigt att en inkrementell ökning av hur bra våra mjukvarualgoritmer är skulle räcka för att springa om denna hårdvara. Jensens snack om "giant leap" är marketing, RTX var ett stort kliv frammåt, men inte en månlandning.

"Hokus pokus" är resultatet av att ha försökt i väldigt länge. Vad är konstigt med att en lång tids försök plötsligt bär resultat.
Som sagt att två aktörer ser resultat under ungefär samma tidsperiod är mer troligt än att de inte gör det. Upptäckter brukar så att säga "ligga i tiden". Vet inte varför du hela tiden säger att det är tvärt om när den vetenskapliga historien säger något annat. I mina ögon tycks det vara för att du baserar din åsikt på felaktig grund.

Jag är helt ok med att du tycker vad du vill så klart.
Men jag vill belysa att ni är flera här vars argument tycks vila på vad ni tror är en sund grund, men som i mina ögon ser ut att vara ihålig.
Jag lutar själv bara svagt mot att detta kan vara korrekt, och risken att materialet de visat är missvisande är signifikant.
Så jag argumenterar svagt för att detta är troligt, och starkt mot att de argument som ni framfört är logiska. Det är två närbesläktade men faktiskt mycket skilda punkter.

Jag hoppas du vill förklara för mig exakt vad i mitt resonemang som är fel. Varför det skulle vara mindre troligt att detta stämmer bara för att nVidia har kommit på en bit ny hårdvara. Du presenterar det bara som en självklarhet, men jag ser många möjligheter till att det skulle vara falskt.

---

Men om jag är för otrevlig som lyfter detta på ett sätt där jag var den som valde ut dig som motdebattör i en fråga som är riktad mot många så släpper vi detta. Det är många som inte tycker om att pushas in i en sådan roll, så en ursäkt misstänker jag är på plats. :/

Jag har redan skrivit varför jag tycker att det är orimligt så läs mina tidigare inlägg och låtsas att det är ett svar på det här.

Skickades från m.sweclockers.com

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Hjälpsam

Crytek har haft Raytracing sedan ett tag tillbaka, så det är inget nytt.
https://docs.cryengine.com/display/CEMANUAL/Ray+Traced+Shadow...
Vad som är nytt är det fina resultatet.

Förstår misstänksamheten mot detta, det verkar onekligen för bra för att vara sant, men jag tror verkligen att det är sant.

Skrivet av Ike Turner @Beoynd 3D:

Given who's developed this (Vladimir Kajalin) it is safe to assume that it's not some half-assed solution (even though it may not be "perfect"). Vlad has been working on it for years. He's been Principal Rendering Programmer at Crytek for nearly 20 years years (3 years before Tiago Sousa joined him) and is frankly the most low key dev with this status in the industry. He literally invented SSAO among other things and has been pumping out crazy things since the Dino Island/X-isle tech demo (first time I heard his name was when Cevat & Faruk showed be the demo/benchmark during the Geforce 3 launch event in Feb 2001).

https://forum.beyond3d.com/posts/2062125/

Tyvärr dröjer det ett tag innan vi får se resultat, tekniken är inte riktigt färdig och sedan tar det ett tag innan vi får se spel som använder den.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk

Bwahaha, här har vi beviset på att Nvidia bara slängde in Tensor-skräpet som svepskäl för att försvara den groteska prishöjningen på RTX-serien. Kul att gpu-prestandan stått stilla i 3 år...

Permalänk
Medlem
Skrivet av huxflux:

Gammal o gammal, vad 2-3 år innan utvecklare började ta fram det i demos och spel?

I varje fall så är det ca 6 månader sen Nvidia gick ut med vad som krävs för raytracing. Är jag helt felt ute med att säga att du inte ens kan aktivera det i något annat nvidia grafikkort än RTX serien?

Skickades från m.sweclockers.com

"Realtids" Ray Trace började man väl laborera med på tidigt 1980-tal, så det är ju inte helt nytt..

Men rätt fet hårdvara och knappast tillgängligt för vanligt folk och kanske inte de upplösningar och detaljer vi förväntar idag.

Men nytt är det definitivt inte.

Visa signatur

En del av mina bildlänkar hostas på egen maskin, är bildlänkarna trasiga, ha tålamod.

Permalänk
Datavetare

Ray tracing har ju kunnat köras på GPUer ända sedan de fick stöd för "unified shader model", vilket introducerades med AMD/Terrascale samt Nvidia/Tesla.

På den tiden var begränsningarna ändå så pass stora samt CUDA/OpenCL hade ännu inte lanserats, så i praktiken var ray tracing ändå något som var begränsat till CPU.

Med åren har GPUerna blivit allt mer generella i sin programmeringsmodell. Från och med Volta är Nvidias GPUer kapabla att implementera ISO C11 och ISO C++17 standarderna, så i teorin kan man köra sina program där (i praktiken skylle de flesta PC-program köras horribelt ineffektivt på en GPU då GPUer är optimerade för väldigt specifika laster).

Alla modeller baserade på GCN och alla Nvidia kort från minst Kepler och framåt fungerar att köra GPU-accelererad ray tracing på i t.ex. Blender. Tittar man på aktuella modeller från både AMD och Nvidia körs ju ray tracing idag effektivare på GPU än på CPU.

Så Nvidias RT-kärnor handlar inte om att addera någon logisk funktion som inte tidigare existerade. Det handlar bara att om att snabba upp en specifik arbetslast.

Har man ett RTX-kort kan man testa att köra Octane Render benchmark. Där användes ray tracing för att rendera en scen, dels helt utan RT-kärnor (den delen går även att köra på tidigare Nvidia GPUer) samt med acceleration av RT-kärnor

Det "enda" RT-kärnorna ger är i mitt fall 2,7 till 4,9 gånger högre prestanda (genomsnitt en boost på en faktor 3,0). Resultatet rent bildmässigt är exakt densamma vare sig man kör med eller utan RT-kärnor.

En intressant datapunkt där är hur pass stor variationen effekten av RT-kärnorna är. Och häri ligger nog förklaringen till vad Crytek gjort i sin demo.

Speldesign handlar extremt mycket om att göra bra kompromisser och göra de rätta designvalen. Sett till rå beräkningskapacitet fixar Vega-korten och de högre spec:ade Pascal-kortet ray tracing. Problemet med ray tracing är att strålarna har en tendens att divergera, GPUer är inte alls bra på att hantera program där de olika CUDA/stream-kärnorna divergerar in i olika programvägar.

Om man väljer sin scen, framförallt de ytor som genererar reflektioner, på ett sätt att strålar som passerar pixels nära varandra på skärmen med relativt stor sannolikhet fortsätter att vara parallella när man följer dem in i scenen så fungerar det riktigt bra att köra hela ray trace algoritmen i "vanliga" shaders.

Några saker man ser i demon som gör strålarna rätt koherenta är: spegelblanka ytor (räcker med en stråle ut, infallsvinkel lika med utfallsvinkel). Om ytan ger en diffus reflektion måste man dels generera flera reflektionsstrålar och deras utfallsvinkel kommer vara olika för i princip alla strålar -> kräver i praktiken något likt RT-kärnor.

Plana ytor: om objekten inte är plana får ju även blanka ytor spridning av strålar då riktningen på sekundärstrålen är en funktion av riktningen på den yta som reflekterar strålen.

I denna demo ser man relativt stora, plana och helt blanka ytor, något som gör att sekundärstrålarna typiskt "håller ihop" och när de gör detta blir ray tracing algoritmen riktigt effektiv även utan RT-kärnor. Om RT-kärnorna används på RTX-korten kommer man absolut se ett klart prestandalyft där, men skillnaden vara relativt lågt (gissar ändå på >x2 men lär visa sig nästa vecka kanske).

När spelutvecklarna fått experimentera massor med hur man bäst använder ray tracing tror jag man kommer hitta specifika fall där det går att utnyttja tekniken på ett sätt som både är relativt billigt och ger en bra visuell utdelning. Metro Exodus har t.ex. rätt liten visuell skillnad mellan de olika nivåerna på ray tracing, det trots att den lägre nivå kör ray tracing delen på halv upplösning!

Är sådana fall man antagligen kommer hitta flera av, i vissa fall kanske det till och med visar sig att det går att nyttja även på kort utan optimeringar som "RT-cores", vissa shader-effekter som används idag är ju riktigt beräkningstunga och där kan det finnas effekter som kanske bättre hanteras med ray tracing än med "fusk".

Att bara fläska på med ray tracing och hoppas på det bästa kommer bli en slide-show på all HW vi lär se i närtid...

Fixade till länken till bilden...
Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Nu är jag ingen raytracing-expert men om man tittar 24sekunder in i videon till vänster sida så är det ett fönster där man ser en reflektion av neonskylten på högersida.
Här är det något som inte stämmer, då reflektionen på vänster sida visar att skylten även lyser upp marken, men tittar man på höger sida så syns inget av detta.

Man ser även att det är en blå bit som sticker ut i "monumental" reflektionen som inte finns på höger sida.

Därför är jag skeptisk till att det är riktig raytracing och tror det handlar om lite smarta tricks för att få det att se verkligt ut.

edit: även 1m45sek in i videon så ser man en reflektion på höger sida av rosa/lila skylten med vit text lite längre fram som återfinns på vänster sida.
Enda konstiga här är att reflektionen är upp och ner!.

dumma stavfel och tillägg.
Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Datavetare
Skrivet av CubaCola:

Nu är jag ingen raytracing-expert men om man tittar 24sekunder in i videon till vänster sida så är det ett fönster där man ser en reflektion av neonskylten på högersida.
Här är det något som inte stämmer, då reflektionen på vänster sida visar att skylten även lyser upp marken, men tittar man på höger sida så syns inget av detta.

Man ser även att det är en blå bit som sticker ut i "monumental" reflektionen som inte finns på höger sida.

Därför är jag skeptisk till att det är riktig raytracing och tror det handlar om lite smarta tricks för att få det att se verkligt ut.

edit: även 1m45sek in i videon så ser man en reflektion på höger sida av rosa/lila skylten med vit text lite längre fram som återfinns på vänster sida.
Enda konstiga här är att reflektionen är upp och ner!.

Tror din observation och slutsats är helt korrekt. Bildtexten till YouTube videon säger detta

"Reflections are achieved with the new experimental ray tracing feature in CRYENGINE 5 - no SSR."

D.v.s. är nog bara reflektioner, inte ljussättning/skuggor, som hanteras med ray tracing. (SSR = Screen Space Reflection, "fusksättet" att göra reflektioner).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

@ClintBeastwood: Jag förstod från början varför du tycker det är orimligt, du får tycka vad du vill, jag tror jag uttryckte det väldigt tydligt. Att du tycker som du tycker är logiskt om man bygger det på antagandet att din logiska grund är korrekt, så inget konstigt där. Jag har bara bett att få ta del av din logiska grund, men allt jag har fått när jag ifrågasatt din grund är att du upprepar samma sak och påstår att det är ett bevis. Allt som är sant kan brytas ner i mindre sanningar som de bygger på, det är grunden i vetenskap och logik. Men jag släpper detta nu, för du är helt övertygad om att det du säger är sant trotts att du inte kan artikulera varför, så det känns som ett ordkrig. Ledsen att jag tog upp det.

Visa signatur

SweClockers Dark Pearl tema: http://www.sweclockers.com/forum/trad/1484891
(Rek. Stylus)

Permalänk
Medlem
Skrivet av dpom86:

Men det är ju det jag säger, det är en dålig anledning för den håller inte 100% rent logiskt. Jag har sett flera personer skriva om just "dedikerad hårdvara" nu. Men ingen verkar fatta att en stor del av problemet för nVidia just var att det var extremt svårt att komma på hur man ska accelerera detta i hårdvara. De lyckades, vilket är mycket imponerande på flera sätt, men det utesluter inte på långa vägar att detta är möjligt med smartare mjukvara. Flera drar hela tiden den falska slutsatsen att just det faktum att det finns dedikerad hårdvara betyder att det vore mycket långsammare utan den. Det är inte ett givet faktum just till stor del för att det är ett problem som det är svårt att utveckla dedikerad hårdvara till, vilket med god sannolikhet betyder att den dedikerade hårdvaran egentligen inte alls är speciellt effektiv, vilket allt vi sett av RTX hittills också verkar styrka. Sett till hur många transistorer/beräkningspotential som sänks in i problemet så verkar den bara vara något mer effektiv än de mjukvarualgoritmer som fanns hittills. Det känns därför inte alls konstigt att en inkrementell ökning av hur bra våra mjukvarualgoritmer är skulle räcka för att springa om denna hårdvara. Jensens snack om "giant leap" är marketing, RTX var ett stort kliv frammåt, men inte en månlandning.

"Hokus pokus" är resultatet av att ha försökt i väldigt länge. Vad är konstigt med att en lång tids försök plötsligt bär resultat.
Som sagt att två aktörer ser resultat under ungefär samma tidsperiod är mer troligt än att de inte gör det. Upptäckter brukar så att säga "ligga i tiden". Vet inte varför du hela tiden säger att det är tvärt om när den vetenskapliga historien säger något annat. I mina ögon tycks det vara för att du baserar din åsikt på felaktig grund.

Jag är helt ok med att du tycker vad du vill så klart.
Men jag vill belysa att ni är flera här vars argument tycks vila på vad ni tror är en sund grund, men som i mina ögon ser ut att vara ihålig.
Jag lutar själv bara svagt mot att detta kan vara korrekt, och risken att materialet de visat är missvisande är signifikant.
Så jag argumenterar svagt för att detta är troligt, och starkt mot att de argument som ni framfört är logiska. Det är två närbesläktade men faktiskt mycket skilda punkter.

Jag hoppas du vill förklara för mig exakt vad i mitt resonemang som är fel. Varför det skulle vara mindre troligt att detta stämmer bara för att nVidia har kommit på en bit ny hårdvara. Du presenterar det bara som en självklarhet, men jag ser många möjligheter till att det skulle vara falskt.

---

Men om jag är för otrevlig som lyfter detta på ett sätt där jag var den som valde ut dig som motdebattör i en fråga som är riktad mot många så släpper vi detta. Det är många som inte tycker om att pushas in i en sådan roll, så en ursäkt misstänker jag är på plats. :/

Har du någon faktisk koll på hur Ray Tracing algoritmerna fungerar och vad den dedikerade hårdvaran gör, eller rationaliserar du bara din ståndpunkt? Jag har väl visserligen inte skitbra koll själv, men generellt när man bygger hårdvara för att lösa ett specifikt problem så är den enormt mycket effektivare än att lösa problemet i mjukvara.

Det var ju inte så att det inte var möjligt att köra "ray-tracing i realtid" tidigare, men grejen med RTX accelerationen var ju snarare att man kan köra instruktionerna sjukt mycket snabbare, vilket gjorde att man kunde renderera en scen som körde i ~5fps i förra generationen i ~30fps. Vilket i sin tur innebär att man kan komma närmare att använda ray-tracing i en scen med jämförbar komplexitet som dagens spel, åtminstone så at man kan delvis använda ray-tracing men mindre performance impact, t. ex. till reflektioner.

Det är ju sjukt intressant om de har hittat en revolutionerande lösning på ett problem man har haft sedan man började med 3D grafik, men jag är rädd för att det snarare kommer att röra sig om trick med scenens komplexitet. Därför så avaktar jag tills det finns mer detaljer och helt ett körbart demo innan jag drar slutsatsen att detta är the shit.

Permalänk
Medlem

Jag hoppas på att vi får se spel där RT knappt används, utan blir små effekthöjande bidrag till grafiken samt spel där det fläskas på riktigt överdrivet. D v s att utvecklarna har den goda smaken att använda det rätt för rätt spel.

Vi har sett så många gånger nu att när det kommer en ny teknik så överdrivs det bara för att.

För att ge två exempel där det skulle funka som jag beskriver.

1. Låg RT.
Thief

2. Hög RT.
Ori and the blind Forest.

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem
Skrivet av dpom86:

Men det är ju det jag säger, det är en dålig anledning för den håller inte 100% rent logiskt. Jag har sett flera personer skriva om just "dedikerad hårdvara" nu. Men ingen verkar fatta att en stor del av problemet för nVidia just var att det var extremt svårt att komma på hur man ska accelerera detta i hårdvara. De lyckades, vilket är mycket imponerande på flera sätt, men det utesluter inte på långa vägar att detta är möjligt med smartare mjukvara. Flera drar hela tiden den falska slutsatsen att just det faktum att det finns dedikerad hårdvara betyder att det vore mycket långsammare utan den. Det är inte ett givet faktum just till stor del för att det är ett problem som det är svårt att utveckla dedikerad hårdvara till, vilket med god sannolikhet betyder att den dedikerade hårdvaran egentligen inte alls är speciellt effektiv, vilket allt vi sett av RTX hittills också verkar styrka. Sett till hur många transistorer/beräkningspotential som sänks in i problemet så verkar den bara vara något mer effektiv än de mjukvarualgoritmer som fanns hittills. Det känns därför inte alls konstigt att en inkrementell ökning av hur bra våra mjukvarualgoritmer är skulle räcka för att springa om denna hårdvara. Jensens snack om "giant leap" är marketing, RTX var ett stort kliv frammåt, men inte en månlandning.

"Hokus pokus" är resultatet av att ha försökt i väldigt länge. Vad är konstigt med att en lång tids försök plötsligt bär resultat.
Som sagt att två aktörer ser resultat under ungefär samma tidsperiod är mer troligt än att de inte gör det. Upptäckter brukar så att säga "ligga i tiden". Vet inte varför du hela tiden säger att det är tvärt om när den vetenskapliga historien säger något annat. I mina ögon tycks det vara för att du baserar din åsikt på felaktig grund.

Jag är helt ok med att du tycker vad du vill så klart.
Men jag vill belysa att ni är flera här vars argument tycks vila på vad ni tror är en sund grund, men som i mina ögon ser ut att vara ihålig.
Jag lutar själv bara svagt mot att detta kan vara korrekt, och risken att materialet de visat är missvisande är signifikant.
Så jag argumenterar svagt för att detta är troligt, och starkt mot att de argument som ni framfört är logiska. Det är två närbesläktade men faktiskt mycket skilda punkter.

Jag hoppas du vill förklara för mig exakt vad i mitt resonemang som är fel. Varför det skulle vara mindre troligt att detta stämmer bara för att nVidia har kommit på en bit ny hårdvara. Du presenterar det bara som en självklarhet, men jag ser många möjligheter till att det skulle vara falskt.

---

Men om jag är för otrevlig som lyfter detta på ett sätt där jag var den som valde ut dig som motdebattör i en fråga som är riktad mot många så släpper vi detta. Det är många som inte tycker om att pushas in i en sådan roll, så en ursäkt misstänker jag är på plats. :/

Jisses, vad trött jag blev. 😴

Skickades från m.sweclockers.com

Visa signatur

Det är farligt att leva... man kan dö!

Permalänk
Medlem

Jag gjorde en djupdykning när jag såg videon. (OBS! Jag hade inte märkt dessa saker om jag inte stannade upp och jämförde).

De använder sig av motion blur (även på vissa statiska föremål ibland? Stabiliseras efter ett tag), vilket kan få vissa saker att se konstiga ut. (Har inget att göra med ray tracing)

motion blur

Det verkar bli duplicering på vissa ställen. Kanske har att göra med att vissa ytor är diffusa och skapar flera reflection rays? Kanske för låg precision? Svårt att avgöra utan att se hur strålarna studsar. Jag hade t.ex markerat en annan bild som felaktig, men efter att jag tänkte efter ett långt tag och följde strålarna så kunde jag se att resultatet var korrekt. Hade man kunnat flytta runt kameran hade det varit lättare att kontrollera.

duplicering

Saken är att jag i stort sett aldrig skulle märka dessa saker om jag var i rörelse eller stannade upp för att fundera på det. Så i det avseendet är det ok. Det tog 24 år för mig att märka (först när någon påpekade det) att det flyger in en kamera mitt när Luke duelerade mot Vader i episod 6 (nere i högra hörnet). Så visst kan man lura folk. All grafik i realtid är baserad på att du är lättlurad.

Iallafall, vad jag läst så är denna teknik inte vara baserad på trianglar, utan voxels. Det kan man läsa om t.ex i "A Ray-Box Intersection Algorithm and Efficient Dynamic Voxel Rendering" från NVIDIA . De flesta begrepp förklaras och pseudokod, samt kod ges. Det genomförs även tester på 1080 samt Titan V, och det verkar fungera utmärkt på båda (men många gånger snabbare på titan V).

Permalänk
Hjälpsam

För de mer kunniga än vad jag är.

SVOGI (Voxel-based Global Illumination): Mesh tracing Part - Enabled ray tracing functionality in shaders.
https://github.com/CRYTEK/CRYENGINE/commit/e661217049eeaad116...

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

@Radolov: Det du har markerat på första bilden nere i höger hörn med motion blur så är även skylten som reflekteras upp och ner som jag skrev tidigare
Så vet inte vad Crytek håller på med riktig?

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Hjälpsam

@Radolov: Sett funderingar om att de kanske använder Conetracing, det skulle förklara den goda filtreringen.
Kan det stämma?

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

måste vara den minst imponerande ray tracing demon jag någonsin sett... kändes som extremt simpla modeller och lågt antal strålar antagligen för att prestandan är horribel

Visa signatur

i5 10400f | asus b460-f | 2x8gb kingston 2666 | zotac 3060ti | corsair mp510 960gb (OS) + samsung 860 evo 1tb + 2x kingston a400 480gb | corsair vx450 | tr true black | fractal r3 | asus mg279q + lg w2363d | dt 880 | win 10 x64 | deathadder chroma | glorious 3xl | tb impact 600 | oculus quest 2

Permalänk
Medlem

@Ratatosk: kan ju stämma då ett PS4 spel använder den tekniken (The Tomorrow Child) och är oskarp i bilden.

https://www.youtube.com/watch?v=_wtF4tYT8A0

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem

Imponerande, men så har också Vega en mycket begåvad parallell beräkningskapacitet. Det återstår hur samma motor hade fungerat på Navi som ska fokusera mindre på compute, men det kan betyda att man bara skalar bort mer FP64 hos Navi.

Navi förblir också den sista GCN-designen så det blir spännande att se hur mycket dom mjölkar ut innan Arcturus ska göra entré.

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Medlem
Skrivet av CubaCola:

@Radolov: Det du har markerat på första bilden nere i höger hörn med motion blur så är även skylten som reflekteras upp och ner som jag skrev tidigare
Så vet inte vad Crytek håller på med riktig?

Det du säger är det jag försöker få fram.
Vi är lättlurade.

Varför är vi lättlurade? Jo, för att det som visas i bild 1 är korrekt, minus motion blur , minus att det är en abstraktion av verkligheten (då det ej är en full uträkning av renderingsekvationen, som i sig är en viss abstraktion, men den bästa vi har) .

Du när du säger att den är fel för att den är upp och ner tänker på att strålarna kommer direkt från skylten till "spegeln". Detta är fysiskt omöjligt, ty en stråle som åker snett neråt, åker fortfarande neråt efter den studsat mot väggen. Varför den i själva verket hamnar upp och ner, är p.g.a att ljuset studsar i vattenpölen bredvid.

(ok, bilden från den gröna pilen skulle hamna lite längre ner, men ni fattar poängen).

Om du har en smartphone med en yta som reflekterar så kan du kontrollera själv genom att om du lägger ner den så hamnar allting upp och ner som reflekteras på den, vänder du den mot dig så ser du allt spegelvänt, etc etc.

Ibland fungerar inte verkligheten som man tror att den bör heller. T.ex så finns det skuggor som enbart uppenbarar sig om ljus faller från en specifik vinkel och du står på ett specifikt ställe och faller på en specifik yta (lite svårt att förklara, men när man väl ser det undrar man hur det ens går till).

Och du kan tänka dig att en studs är hyfsat lätt att följa (en spegel), två studsar tänkte du fel på (spegel på spegel). Vad tror du händer efter fem studsar (spegel, på spegel, på spegel, på spegel, på spegel)? Då är man helt borta. Det finns ingen som tänker från fem perspektiv samtidigt, utan de måste kontrolleras en i taget, genom att följa strålen.

Skrivet av Ratatosk:

@Radolov: Sett funderingar om att de kanske använder Conetracing, det skulle förklara den goda filtreringen.
Kan det stämma?

Inte säker, fanns ett PS4 spel som gjorde det.

Jag har sett konsolutvecklare som argumenterar för att en bredare struktur såsom ett octree hade varit en bra lösning för GCN. Jag har dock aldrig hittat några rapporter där det testats (och då har jag ändå letat igenom ett hundratal...). Samtidigt så är radeon rays baserat på ett binärträd (HLBVH av NVIDIA, 2010). Så lite mixade signaler. Jag planerar att undersöka vad som händer om man använder bredare träd.

Permalänk
Medlem
Skrivet av ClintBeastwood:

Du skriver själv i ett inlägg att ingenjörer försökt i ett par decennium men nu har Crytek hokus pokus löst så att även förra generationens kort kan köra spel med raytracing i realtid, ~6 månader efter att Nvidia släppt kort med dedikerad hårdvara att köra det på som ändå med nöd och näppe klarar det. Det är mitt argument, om man kan kalla det de (snarare anledning?), för att det verkar orimligt.

Ja, frågan är hur länge de jobbat på det. Vi vet ju att Crytek har jobbat på sin spelmotor länge och jag kan tänka mig att deras utvecklare varit sugna på att göra något länge. De har väl kört något via computehållet för att kunna göra detta.

Men, tror du att detta är fejk?

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem
Skrivet av kelthar:

Ja, frågan är hur länge de jobbat på det. Vi vet ju att Crytek har jobbat på sin spelmotor länge och jag kan tänka mig att deras utvecklare varit sugna på att göra något länge. De har väl kört något via computehållet för att kunna göra detta.

Men, tror du att detta är fejk?

Nej nej. Jag tror inte att det är fejk utan det jag tvivlar på är prestandan och specifikt prestandan i spel.

Skickades från m.sweclockers.com

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem

@Radolov: Men även om reflektionen är ifrån vattenpölen så är den väl inte korrekt, då den är alldeles för tydlig emot hur den ser ut i vattenpölen?

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Skrivet av Ozzed:

Man kan ju ana att Nvidia på något sätt kommer spy galla över det här.

Själv tycker jag bara det är bra om det fungerar. Hela grejen med "dedikerade bitar av kärnan" till en specifik uppgift känns väldigt lökig, utan det jag önskar är snarare att råkraften ökar och ökar och sedan kan spelutvecklare göra vad de vill med den, som om det här på sikt dödar "turing cores" eller vad nu den specialanpassade biten heter så är det bara bra enligt min egen personliga åsikt.

Edit: Fixade typos.

Det beror väl på vilken typ av operationer som ska göras och optimeringar som kan göras utifrån det?
DLSS verkar vara ett use case där det är befogat med dedikerade kärnor, där det ska göras en massa matrismultiplikation enligt
https://www.sweclockers.com/nyhet/27108-computerphile-forklar...

Nu är ju inte DLSS så lyckat i praktiken än men det är ändå något som rimligen underlättas av något som tensorkärnor.

Jag minns inte om jag hört något liknande om operationerna som görs för ray tracing. Nvidia får det att framstå att det krävs "RTX cores" men det kan ju vara ren marknadsföringsmörja. Jag försökte göra lite research nu, läste på om path tracing, ray tracing, Nvidias egen beskrivning av implementationen (som till skillnad från DLSS inte nämner något om att det är någon särskilt operation som RT-kärnorna fokuserar på) och diskussioner mellan utvecklare på:
https://devtalk.nvidia.com/default/board/57/

Detta va särskilt upplysande:
https://devblogs.nvidia.com/ray-tracing-games-nvidia-rtx/

Nu är jag inget kodgeni eller specialist inom datorgrafik men av allt jag läst, sett och hört skulle jag sammanfattningsvis säga att:
- Mycket av de algoritmer som lagt grunden för ray tracing har inte markant förändrats sedan 70-talet
- Nya approximerade algoritmer som mer eller mindre löser "the rendering equation" har inte tillkommit sedan Photon mapping, 1995 (vad jag kan hitta iaf)
- Trots försök att optimera ray tracing är det fortfarande inte realistiskt att använda mer än 1 eller 2 samples per pixel i realtid
- Denoising är inget nytt men Nvidia har utvecklat en metod som riktar in sig på att kunna effektivt göra denoising trots endast 1-2 samples per pixel.
- Nvidias lösning använder tre sorters denoising för olika effekter, vilka var för sig använder sig av olika (delvis gemensamma) uppsättningar data
- Nvidias exempel på hur Turing resp. Pascal hanterar ray tracing visar att RT-kärnorna inte kan processa fler rays med samma antal FP-operationer, det är bara så att alla RT-kärnor på en RTX 2080 Ti har en kapacitet på 100 TFLOPS så den kan processa 10 "gigarays" medan en GTX 1080Ti med ~11 TFLOPS kan processa 1.1 "gigaray" - eller tolkar jag nedanstående fel?

In Pascal, ray tracing is emulated in software on CUDA cores, and takes about 10 TFLOPs per Giga Ray, while in Turing this work is performed on the dedicated RT cores, with about 10 Giga Rays of total throughput or 100 tera-ops of compute for ray tracing.
- NVIDIA-Turing-Architecture-Whitepaper.pdf

Att de säger 100 tera-ops kanske är för att det inte bara är FP-operationer...?
Eller vill de bara vara missvisande och inte peka ut att RT-kärnorna inte alls är extra effektiva på raytracing, utan bara har en jäkla massa extra beräkningskraft?

Så det enda "nya" som gör ray tracing i realtid möjligt är:
1. Effektiv denoising som kan hantera ray tracing som gjorts med endast 1 sample per pixel (eller upp till 2)
2. En jäkla massa extra beräkningskraft, dedikerad för Raytracing i RT-kärnor men som inte verkar skilja sig direkt från FP32-enheterna i CUDA-kärnorna - om inte mot förmodan RT-kärnorna faktiskt gör en kombination av operationstyper

TLDR:
Den extra beräkningskraft som RT-kärnorna erbjuder innebär antagligen att AMD ändå inte kan mäta sig med Turing-korten i Cryengine. Jag antar också att någon motsvarande sorts denoising som Nvidia använder också används för AMD-korten, antingen implementerat helt och hållet av Cryengine eller i samarbete med AMD.

Ser fram emot att få lite mer faktisk, konkret info om hur det funkar i Cryengine och se om jag är helt ute och cyklar eller inte.

Permalänk
Skrivet av Radolov:

De använder sig av motion blur (även på vissa statiska föremål ibland? Stabiliseras efter ett tag), vilket kan få vissa saker att se konstiga ut. (Har inget att göra med ray tracing)

Kolla när spegelytorna här roterar:
https://youtu.be/1nqhkDm2_Tw?t=77

Det skulle kunna ha med ray tracing att göra ändå.
Jag läste på om implementationen av ray tracing från Nvidia, de använder inte någon "temporal data", alltså de jämför inte värden från ray tracing data från tidigare frames. Att göra det kan leda till ghosting. Skulle det kunna vara så att Cryengine valt att göra det och därför få något som liknar motion blur?

Nvidia skrev:
All of the denoisers work on 1-2 sample per pixel input even without temporal reprojection. We don’t have to suffer from the ghosting or other typical issues introduced by temporal filtering.
- https://devblogs.nvidia.com/ray-tracing-games-nvidia-rtx/

Jag bara spekulerar, jag har inte sett några exempel på effekterna så jag kan inte göra en jämförelse med Cryengines demo.

Permalänk
Medlem
Skrivet av Galadhnen:

- Nvidias exempel på hur Turing resp. Pascal hanterar ray tracing visar att RT-kärnorna inte kan processa fler rays med samma antal FP-operationer, det är bara så att alla RT-kärnor på en RTX 2080 Ti har en kapacitet på 100 TFLOPS så den kan processa 10 "gigarays" medan en GTX 1080Ti med ~11 TFLOPS kan processa 1.1 "gigaray" - eller tolkar jag nedanstående fel?

In Pascal, ray tracing is emulated in software on CUDA cores, and takes about 10 TFLOPs per Giga Ray, while in Turing this work is performed on the dedicated RT cores, with about 10 Giga Rays of total throughput or 100 tera-ops of compute for ray tracing.
- NVIDIA-Turing-Architecture-Whitepaper.pdf

Att de säger 100 tera-ops kanske är för att det inte bara är FP-operationer...?
Eller vill de bara vara missvisande och inte peka ut att RT-kärnorna inte alls är extra effektiva på raytracing, utan bara har en jäkla massa extra beräkningskraft?

De jämför endast vilken prestanda som krävs för att göra motsvarande arbete som RT-kärnorna gör, d.v.s. om man inte har RT-kärnor så krävs ungefär 10 TFLOP per Gigaray. Det betyder inte att RT-kärnorna faktiskt utför 10 TFLOP per Gigaray, utan hela poängen med dem är att kunna göra beräkningarna på ett effektivare sätt än att bara bruteforcea dem med CUDA-kärnor. Prestandan för RT-kärnorna räknas alltså främst i Gigaray/s och inte TFLOP/s, eftersom det intressanta är hur många strålar per sekund som kan beräknas.

CUDA-kärnorna (och AMDs motsvarighet) är designade att utföra samma operationer på en stor mängd data, eftersom rastrering främst är ett dataparallellt problem. Ray tracing är istället främst ett uppgiftsparallellt problem då strålarna kräver olika beräkningar beroende på hur de studsar, så traditionella grafikkort lämpar sig ganska illa för ray tracing. Men det går förstås att göra ray tracing på grafikkort utan RT-kärnor också, de är bara inte särskilt effektiva på det.

Däremot så ligger tensorkärnorna på ett 2080 Ti faktiskt på ungefär 100 TFLOPS, men de är då helt specialiserade på att utföra operationen D = A * B + C där A, B, C och D är 4x4-matriser.

Permalänk
Hjälpsam
Skrivet av Galadhnen:

Det beror väl på vilken typ av operationer som ska göras och optimeringar som kan göras utifrån det?
DLSS verkar vara ett use case där det är befogat med dedikerade kärnor, där det ska göras en massa matrismultiplikation enligt
https://www.sweclockers.com/nyhet/27108-computerphile-forklar...

Nu är ju inte DLSS så lyckat i praktiken än men det är ändå något som rimligen underlättas av något som tensorkärnor.

Jag minns inte om jag hört något liknande om operationerna som görs för ray tracing. Nvidia får det att framstå att det krävs "RTX cores" men det kan ju vara ren marknadsföringsmörja. Jag försökte göra lite research nu, läste på om path tracing, ray tracing, Nvidias egen beskrivning av implementationen (som till skillnad från DLSS inte nämner något om att det är någon särskilt operation som RT-kärnorna fokuserar på) och diskussioner mellan utvecklare på:
https://devtalk.nvidia.com/default/board/57/

Detta va särskilt upplysande:
https://devblogs.nvidia.com/ray-tracing-games-nvidia-rtx/

Nu är jag inget kodgeni eller specialist inom datorgrafik men av allt jag läst, sett och hört skulle jag sammanfattningsvis säga att:
- Mycket av de algoritmer som lagt grunden för ray tracing har inte markant förändrats sedan 70-talet
- Nya approximerade algoritmer som mer eller mindre löser "the rendering equation" har inte tillkommit sedan Photon mapping, 1995 (vad jag kan hitta iaf)
- Trots försök att optimera ray tracing är det fortfarande inte realistiskt att använda mer än 1 eller 2 samples per pixel i realtid
- Denoising är inget nytt men Nvidia har utvecklat en metod som riktar in sig på att kunna effektivt göra denoising trots endast 1-2 samples per pixel.
- Nvidias lösning använder tre sorters denoising för olika effekter, vilka var för sig använder sig av olika (delvis gemensamma) uppsättningar data
- Nvidias exempel på hur Turing resp. Pascal hanterar ray tracing visar att RT-kärnorna inte kan processa fler rays med samma antal FP-operationer, det är bara så att alla RT-kärnor på en RTX 2080 Ti har en kapacitet på 100 TFLOPS så den kan processa 10 "gigarays" medan en GTX 1080Ti med ~11 TFLOPS kan processa 1.1 "gigaray" - eller tolkar jag nedanstående fel?

In Pascal, ray tracing is emulated in software on CUDA cores, and takes about 10 TFLOPs per Giga Ray, while in Turing this work is performed on the dedicated RT cores, with about 10 Giga Rays of total throughput or 100 tera-ops of compute for ray tracing.
- NVIDIA-Turing-Architecture-Whitepaper.pdf

Att de säger 100 tera-ops kanske är för att det inte bara är FP-operationer...?
Eller vill de bara vara missvisande och inte peka ut att RT-kärnorna inte alls är extra effektiva på raytracing, utan bara har en jäkla massa extra beräkningskraft?

Så det enda "nya" som gör ray tracing i realtid möjligt är:
1. Effektiv denoising som kan hantera ray tracing som gjorts med endast 1 sample per pixel (eller upp till 2)
2. En jäkla massa extra beräkningskraft, dedikerad för Raytracing i RT-kärnor men som inte verkar skilja sig direkt från FP32-enheterna i CUDA-kärnorna - om inte mot förmodan RT-kärnorna faktiskt gör en kombination av operationstyper

TLDR:
Den extra beräkningskraft som RT-kärnorna erbjuder innebär antagligen att AMD ändå inte kan mäta sig med Turing-korten i Cryengine. Jag antar också att någon motsvarande sorts denoising som Nvidia använder också används för AMD-korten, antingen implementerat helt och hållet av Cryengine eller i samarbete med AMD.

Ser fram emot att få lite mer faktisk, konkret info om hur det funkar i Cryengine och se om jag är helt ute och cyklar eller inte.


Tror inte att det är extra beräkningskraft som lyfter RT-korten i RT.
@Yoshman förklaring var att RT kärnorna är bättre på att göra olika saker samtidigt, vanliga shaders är fantastiska på att göra samma sak samtidigt.
I fall om jag minns rätt.

edit perost hann före.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |