AMD: "Ett tag kvar innan DirectX Raytracing slår igenom på riktigt"

Permalänk
Medlem

Tråkigt att det nu verkar bekräftat att Navi "bara" blir en mellansegment produkt. Konkurrens behövs verkligen - kanske nu mer än någonsin med tanke på RTX2000 seriens lilla prestandaökning men skyhögt pris jämfört med föregångarna.

Visa signatur

Mobo: Asus X470 Crosshair VII Hero *** CPU: AMD Ryzen 7 2700X *** RAM: 32Gb G.Skill TridentZ 2933Mhz *** PSU: Seasonic 850W Focus+ Platinum *** GPU: Gigabyte RTX2080 Gaming OC *** SSD: Samsung 860 EVO 2 TB *** Chassi: Fractal Design Define R6 TG Svart *** Tangentbord: Ducky One 3 Daybreak MX Clear *** Mus: Logitech Pro X Superlight *** Skärm: Alienware AW3821DW

Permalänk
Medlem
Skrivet av bopp:

Man lägga märke till att inget spel i Nvidias presentation verkade använda strålspårning fullt ut:
Shadow of the Tomb Raider: skuggor
Battlefield V: reflektioner
Metro Exodus: indirekt global ljussättning

Anledning är troligtvis att dagens RTX-hårdvara inte klarar av full strålspårning i realtid, utan får kämpa även med bara delmängder. Jag antar att Nvidia och spelutvecklarna försöker optimera så mycket som möjligt, speciellt som det ska vara spelbart även på RTX 2070, och att det är därför det dröjer. Vill man vara lite elak, kanske man kan säga att det inte bara fungerade?

Förmodligen kommer de därför även att reducera kvaliten på strålspårningen, och försöka spara in där de kan, för att kunna möta kraven på att göra det i realtid. Det senaste uttalandet från Dice och Nvidia ang Battlefield V tyder på en viss tillnyktring: "An early release of DXR real-time ray tracing will be available in an upcoming patch, ...". Just språkbruket, att de känner behov av att poängtera att det är en "early release" tolkar jag som ett försök att dämpa förväntningarna. Det är inte lika mycket fyrverkeri över det längre.

Jag hoppas dock det går bra, för strålspårning tror jag är framtiden, och det bara bra att Nvidia sätter bollen i rullning, Och är det några som kan lyckas optimera strålspårning så är det nog programmerarna på Dice,

Och sen också påpeka att AMD har :Radeon Rays

Det har ju aldrig talats om full raytracing från Nvidias sida utan det man har sagt att det är hybrid raytracing.

Permalänk
Medlem
Skrivet av _Merc_:

Bra, RayTracing är en gimmick som inte är värd att satsa på än. det krävs minst 2 generationer till innan det kan vara okej.

Undrar hur du tänker - hur ska vi komma till generation två om ingen satsar på tekniken?

Visa signatur

Philips 34M2C8600 | RTX 3090 | AMD R7 5800X3D | 32GB 3600MHz DDR4 | Gigabyte X570 Aorus Master | Seagate Firecuda 530 4TB & Kingston A2000 1TB | 27TB HDD | Seasonic Focus GX 850 | Hifiman Sundara | Fractal North XL | LG CX55 | Yamaha HS7 | Nvidia Shield TV Pro (2019)

Citera för svar!

Permalänk
Avstängd
Skrivet av Wizbro:

Undrar hur du tänker - hur ska vi komma till generation två om ingen satsar på tekniken?

ren beräknings kraft.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem
Skrivet av Hagge:

Har jag missat någon benchmark eller? Hur är ni så säkra på så dåliga fps när det kommer till ray tracing med 20xx serien?

Finns ju inga benchmarks, eller spel som stödjer det. Första blir väl Battlefield V, men även de har skjutit upp det tills vidare.

Visa signatur

Gigabyte G1.Sniper Z87 - Intel Core i7 4770K - MSi GTX 780 Ti Twin Frozr - Corsair Vengeance Pro 16GB
MSi Z97 Gaming 3 - Intel Core i5 4670k - MSi GTX 750 Ti - Cruical BallistiX 16GB
Desktop Win 8.1 Pro 64-Bit

Permalänk
Medlem
Skrivet av dlq84:

Däremot vore det ju intressant om det var möjligt för tredjepart att bygga ett PCIe-kort. Lite så som Ageia PhysX började.

Skrivet av Lifooz:

Precis som du säger så började Ageia med sina PhysX kort och senare blev de uppköpta och integrerade i nVidias GPUer.

Jo det hade faktiskt varit något med dedikerade RT kort.

/Lifooz

Detta är ju inte omöjligt, MEN..... Problemet med detta är ju precis samma som multi-GPU lösningar. Båda korten behöver tillgång till exakt hela scenen. Dvs precis som för Crossfire eller SLI så måste dom dela och synka minne. Eftersom hela poängen med raytracing är ju global illumination som förstås kräver allt i scenen för att faktiskt bli "globally illuminated".

Tillskillnad från fysiksimuleringar som PhysX som endast behöver tillgång till specifika objekt där det ska beräknas fysik. Dessa fysikberäkningar brukar ju dessutom oftast ha helt separata hitboxes som inte alls krävs för att GPUn ska visa objektet på skärmen.

Det hade varit fränt med separata RT-kort, men tyvärr så tror jag inte det är möjligt med hur dagens datorgrafik ser ut. Man skulle få extrema diminishing returns ju komplexare scenen blir precis som med multi-GPU lösningar :/

Permalänk
Medlem

Även om Navi blir mellansegment så ser man till vad för GPU exempelvis 1080 är så är det ju en mellansegments GPUs. Är bara Nvidia som ändrat prisbilden för mellansegmentet från ca 3000:- till 6000:- och fortsätter i den stilen. Så förhoppningsvis blir Navi prestanda i mellanklass vilket idag är runt 2070 men till ett pris som återspeglar att det är mellanklass.

Känns skönt att det skippar raytracing. Det är inte vad som behövs just nu.

Permalänk
Medlem
Skrivet av ander01se:

Finns ju inga benchmarks, eller spel som stödjer det. Första blir väl Battlefield V, men även de har skjutit upp det tills vidare.

Det finns på sätt och vis
https://m.sweclockers.com/test/26250-nvidia-geforce-rtx-2080-...

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem
Skrivet av ClintBeastwood:

Han menade nog icke-tech-demos.

Permalänk
Medlem
Skrivet av ClintBeastwood:

Säkert lika trovärdigt som VW avgastester

Visa signatur

AMD Ryzen 7 2700 3.2 GHz | ASUS ROG STRIX B450-I GAMING
Corsair SF600 | 2x8GB G.Skill 16GB DDR4 3200MHz Trident Z RGB
MSI GeForce GTX 980 Ti | Samsung 970 EVO 250GB | Samsung 860 EVO 500GB M.2 | Noctua NH-L9a-AM4 | DAN Cases A4-SFX v2 | Winows 10

Permalänk
Medlem
Skrivet av scara:

Han menade nog icke-tech-demos.

Det är ju en benchmark (scenen renderas ju trotts allt) även om dlss är aktiverat och inte endast strålspårning så därför skrev jag att det finns på sätt och vis. Eller har jag missuppfattat det?

Skickades från m.sweclockers.com

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem
Skrivet av ClintBeastwood:

Det är ju en benchmark (scenen renderas ju trotts allt) även om dlss är aktiverat och inte endast strålspårning så därför skrev jag att det finns på sätt och vis. Eller har jag missuppfattat det?

Skickades från m.sweclockers.com

Jag misstänkte det var därför du skrev på sätt och vis, bara det att de flesta tekniksidor jag har läst, inklusive recensioner av RTX-kort har nämnt just detta, att det är tech-demos och därför inte ska "räknas" som en benchmark. Så du har ju inte "fel" på något sätt men det är väldigt många som kallar detta "ren tech-demo" (finns inget bevis på det vad jag har vet).

Vet inte det här med DLSS och vilken benchmark/tech-demo har det påslaget. Fast det är kanske en mer realistiskt scenario att det ska vara påslaget. I alla fall om för 1440p 60 FPS som vissa nVidia fanboys hävdar att RTX-korten lätt ska nå (andra säger att de är 30 FPS 1080p men det är hörsägen och förmodligen bullshit det också).

Permalänk
Medlem
Skrivet av Flygplanet:

Det tråkiga är att det känns som om en del folk HOPPAS att RayTracing inte är bra. Det vore grymt om det kunde fungera bra efter lite optimering, förhoppningsvis redan nästa generation.

Vem hoppas här? =/

Permalänk
Medlem

Varför ska AMD hoppa på ett tåg som enbart gynnar deras konkurrenter som har lagt 10 års research på det? AMDs reaktion efter att ha sett RTX demot är något i stil med denna.
Så NVIDIA spenderar en massa pengar på ett kort som kan göra allting, lägg på RT cores och Tensor cores. Resultatet? Ett kort som visserligen passar in i alla marknader, men ett dyrt pris därtill på själva kortet. Men mycket billigare för NVIDIA än att göra specialanpassade kort för olika marknader, som jag förstått det.
Då kan AMD fokusera på den delen som används mest till gaming, rastrering. På så sätt kan de få ut ett kort som kan prestera lika bra som NVIDIAs mångsysslare, fast till ett lägre pris.
Och när vi talar om pris, så involverar även machine learning denoise biten en hel del träning som utförs på servrar/superdatorer som även måste till viss mån anpassas till typen av objekt som visas (mer eller mindre på spel till spel basis som med DLSS). AMD talade lite om deras machine learning denoising här och nämner även att de ska släppa det nästa kvartal. Skulle gissa på att NVIDIA har mycket mer resurser tillgängliga på den delen.

Det fanns siffror förut för hur lång tid vissa saker tog för ett demo i 1080p med ett 2080ti.
2,3ms för shadow rays (1 per pixel)
4,4ms för reflection rays (2 st per pixel)
2,5ms för denoise
För totalt 9,2ms (eller 108 FPS möjligt som högst).

Denoise biten körs inte asynkront, utan måste tilläggas efteråt. Vi prövar att leka med tanken att det är 2,5ms är konstant i de mer studerade fallen (BF V). M.h.a siffror från Hardware unboxed fås:
1080p: 182-> 125 FPS
1440p: 142 -> 104 FPS
2160p: 82 -> 68 FPS
Räknade dock inte med att denoise möjligtvis också skalar med upplösningen. Å andra sidan så finns optimeringar att tillvägagå, antar jag. Digitalfoundry sa innan (då de körde allt synkront) att prestandan var (över 60, 40-50, och under 30).

The moral of the story: AMD skulle inte kunna använda sig av denoise utan att få långt högre prestandapåverkningar p.g.a att de saknar dedikerad hårdvara. Detta är utöver att de har segare raytracing och färre resurser än NVIDIA att träna modellerna. Men de kontrollerar ändå high end konsolmarknaden, vilket tvingar utvecklare att ändå utveckla för dem ändå. De förlitar sig på det kortet och förväntar sig att det tar ett långt tag innan raytracing får fäste, ett fäste som de anser att NVIDIA ska betala för.

Permalänk
Hjälpsam

Tydligen lite förvirring angående vad som sagts och inte sagts.
Orsaken är maskinöversättning från japanska till engelska.

"Mr. Wang said that "AMD will definitely respond to DXR," after preposing that "This is a personal view", but "For the time being, AMD is providing it free of charge" We will focus on improving the offline CG production environment centered on Radeon ProRender ".
"The spread of Ray-Tracing's game will not go unless the GPU will be able to use Ray-Tracing in all ranges from low end to high end," he said."

https://www.overclock3d.net/news/gpu_displays/amd_will_defini...

edit den sista meningen säger helt enkelt att han inte tror att DXR kommer att slå, innan även svagare GPU:r har tekniken.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Jackbob:

Detta är ju inte omöjligt, MEN..... Problemet med detta är ju precis samma som multi-GPU lösningar. Båda korten behöver tillgång till exakt hela scenen. Dvs precis som för Crossfire eller SLI så måste dom dela och synka minne. Eftersom hela poängen med raytracing är ju global illumination som förstås kräver allt i scenen för att faktiskt bli "globally illuminated".

Tillskillnad från fysiksimuleringar som PhysX som endast behöver tillgång till specifika objekt där det ska beräknas fysik. Dessa fysikberäkningar brukar ju dessutom oftast ha helt separata hitboxes som inte alls krävs för att GPUn ska visa objektet på skärmen.

Det hade varit fränt med separata RT-kort, men tyvärr så tror jag inte det är möjligt med hur dagens datorgrafik ser ut. Man skulle få extrema diminishing returns ju komplexare scenen blir precis som med multi-GPU lösningar :/

Det ser inte ljusare ut för tanken på separata RT-kort om de hade kopplats till ett gtx-kort via NV-Link?
Ska ju vara så väldans snabba så pass att korten kan jobba som ett kort.

Tänker mig att ett av Nvidias kommande dedikerade raytracing-kort RT3100 (Svårt gissa produktnamn på fiktiva produkter...) kan kopplas med ett GTX3060 för att kunna köra raytracing, eller att samma RT3100 kan stötta upp ett RTX3080 för att höja rt-prestandan.

Nu är det ju såklart ett faktum att Nvidia är väldigt snåla med att sätta NVlink på sina gpu, detta är såklart rena tankelekar.

Permalänk
Medlem

Eller så tror AMD att raytracing inte är redo för spel ännu och de låter Nvidia ta hela smällen när det visar sig vad man egentligen får med ett kort för 13000kr+.

Forumet är ju full med folk som aldrig skulle tänka sig att spela Red Dead Redemption 2 på en PC om man bara får 30fps i 4k.
Vill man spela Tomb Raider med en 2080Ti och vill ha på lite RTX-skuggor så fick man ju nöja sig med runt 30fps i bara 1080p...

Och nu lägger ju tom studios ner RTX i spel...

Dock, om nu detta inträffar, att RTX blir en flopp, så förväntar jag att de flesta som kommer att rasa över Nvidia kommer att fortsätta att köpa deras kort...

Permalänk
Medlem
Skrivet av mrpijey:

Intressant att vi har så många experter här på forumet som är djupt insatta i hur bra RT funkar med Nvidias kort och har sett det med egna ögon för att kunna rättfärdiga ett totalt fördömande av tekniken. Resten av oss dödliga har bara sett akut programmerade teknikdemos och inför E3-mässan snabbt inpatchade funktioner i spel inför E3-mässan där vi sett inledande prestanda och där vi absolut inte tror att detta kan ha en viss påverkan på prestandan, och att det absolut kan vara betydligt snabbare när de väl lägger in funktionen skarpt i nuvarande och kommande spel....

En annan idiot väntar väl på att de släpper det live, färdigpatchat och optimerat så att man faktiskt får se vad man får för prestanda innan man dömer ut tekniken. Men gissar på att ni var lika misstänksamma och utdömande när shaders (det som då kallades för T&L, Transform & Lighting) och tessellation kom.

Du menar... att vi andra faktiskt väntar på att korten ska ha färdig funktion. Bla OS som kan använda det, spel som drar nytta av det och grafik/prestanda som faktiskt gynnas av det?

Det är ju det vi säger. Nvidia har släppt RTX... i vad som bara kan kallas Aplha stadiet. Det vi vill se är tekniken färdigpatchad, testad, användbar och något "att använda det på", innan vi anser det intressant.

Och folk använde verken AA, T&L eller andra tekniker, tills var bra nog att kunna spelas, utan att tappa så mycket prestanda att det blev ospelbart. Och det lilla vi sett hittills är... ospelbart, jämfört vad kortet presterar utan det.

Finns många diskussioner om att inte förköpa spel... och detsamma gäller teknik också. Köp en teknik som är färdig, och vill du köpa RTX funktionen för 13kkr, är det väl en sak. Men som det är idag, köper du en otestad produkt, icke färdigutvecklad teknik, på ett kort som kostar en förmögenhet, för 20% mer prestanda än 2 år gammalt 1080Ti, men eventuellt RTX stöd i framtiden. Varför inte bara köpa det... i framtiden då, när det blir billigare?

Sen har vi hela diskussionen... vilket har man mest nytta av? Högre FPS, eller korrekt ljusspårning? Kommer du vinna BFV med det, eller kommer du få så låg prestanda att konkurrenten som stängt av den, träffar dig innan? Grafik i multiplayer-FPS är väldigt låg prio... i single player är det väl en sak dock.

Och det som varit kritiken hela tiden är ju, att den blir inte accepterad förrän den fungerar bra, och även på billigare kort.

Permalänk
Medlem

Physkort var poppis ett tag, kanske dags för raytracing kort?

Skickades från m.sweclockers.com

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem
Skrivet av leadc4ge:

... Ett av huvudargumenten för RTX enligt nVidia är ju att utvecklare kan spendera mindre tid på ljussättning (sanning med modifikation eftersom man måste utveckla för vanliga shader-kort samtidigt). ...

Det är ju lite här som skon klämmer.
I dagsläget innebär RTX merarbete för programutvecklarna, även om själva implementeringen i sig går enklare och snabbare än för den rastreringsimplementation de också gjort.
Denna faktor kan (i närtid) leda tre vägar:
1. Både rastrering och RT blir noggrant implementerade. Kostar relativt mycket tid och resurser för utvecklaren, som till viss del troligen kompenseras av subventioner från Nvidia.
2. Man jobbar på med rastrering som vanligt, eftersom den tekniken är enda alternativet för >95% av kunderna. RT implementeras lite styvmoderligt, huvudsakligen som en marknadsföringsgrej och kanske för att få ta del av Nvidias pengar. De kunder som spenderat stora pengar på RTX-kort upplever att RT är "meh".
3. Man lägger, med benäget bistånd från Nvidia, en massa arbete på bra RT-implementering och drar ner på arbetet med rastrerad grafik. Dels för att kapa utvecklingskostnaderna, men också för att kunna "(be)visa" hur mycket bättre grafik man får med RT än utan. Alla kunder som inte har RT-kort blir lidande.

För oss kunder är alternativ ett uppenbarligen bra, så länge inte produkterna stiger hutlöst i pris för att kompensera den adderade utvecklingskostnaden.
Alternativ två drabbar i alla fall ingen fattig...

Skrivet av filbunke:

Eller så tror AMD att raytracing inte är redo för spel ännu och de låter Nvidia ta hela smällen när det visar sig vad man egentligen får med ett kort för 13000kr+.

AMD är ju fullt medvetna om att volymförsäljningen ligger i kort <3000kr, och det finns inte en chans i världen att man kan få (tillräckligt) bra RT till kort <2000kr än på ett tag.

Permalänk
Medlem
Skrivet av waverider:

Tråkigt att det nu verkar bekräftat att Navi "bara" blir en mellansegment produkt. Konkurrens behövs verkligen - kanske nu mer än någonsin med tanke på RTX2000 seriens lilla prestandaökning men skyhögt pris jämfört med föregångarna.

Lättare att få bra yields tidigt med mindre chip och det är där försäljningsvolymerna finns. Tycker det är trist också men förstår varför.

Permalänk
Medlem

@Paddanx: Absolut, det är sunt tänk att inte förköpa och att köpa det när behov osv finns, men det betyder ju inte att tekniken i sig är värdelös eller ofunktionell. Precis som med allt annat så är det alltid hönan/ägget som gäller. Tekniken måste finnas för att spel skall kunna använda det, och spelen måste vara gjorda för att kunna spela det, och vi måste ha ett underliggande system färdigt för att kunna utveckla spelen osv osv. Och det tar alltid lite tid med nya saker. Minns du hur DirectX 10 var? Det kom bara till Vista, och tog en bra stund innan det fick fäste bland utvecklarna, och bra tid innan folk gick över till Vista/Win7 osv. Och vill man inte absolut vara på framkant så ska man ju vänta, men då kanske har ett lite mer realistiskt förhållningssätt till tekniken. Ett "jag vet inte hur bra det är" räcker.

Mitt problem är att folk säger att RTX är skit, kommer vara skit och kommer alltid vara skit fast INGEN har ännu sett en fullt fungerande och optimerad implementation av det. Ungefär som att Tesla skulle släppa en helt ny batteriteknik och innan ens folk sett produkten i action så säger alla unisont att tekniken är skit och kommer inte kunna driva en LED-lampa ens. En massa pseudo-experter som aldrig sett produkten än testat den yttrar sig om dess egenskaper, allt utifrån känsloargument.

Det är en hel del spel på väg ut som kommer använda sig av RT väldigt mycket (Metro Exodus t.ex) och RT är ju aldrig tänkt att ersätta traditionell rendering, i alla fall inte just nu. Med tiden då RT blir bättre och snabbare så kommer det till slut ersätta traditionell rendering, men vi är säkert 10-15 generationer bort innan dess. Tills dess så kommer RT balanseras i spelen och kombineras med vanlig rendering för bästa grafiska kvalitet.

Permalänk
Medlem
Skrivet av mrpijey:

Intressant att vi har så många experter här på forumet som är djupt insatta i hur bra RT funkar med Nvidias kort och har sett det med egna ögon för att kunna rättfärdiga ett totalt fördömande av tekniken. Resten av oss dödliga har bara sett akut programmerade teknikdemos och inför E3-mässan snabbt inpatchade funktioner i spel inför E3-mässan där vi sett inledande prestanda och där vi absolut inte tror att detta kan ha en viss påverkan på prestandan, och att det absolut kan vara betydligt snabbare när de väl lägger in funktionen skarpt i nuvarande och kommande spel....

En annan idiot väntar väl på att de släpper det live, färdigpatchat och optimerat så att man faktiskt får se vad man får för prestanda innan man dömer ut tekniken. Men gissar på att ni var lika misstänksamma och utdömande när shaders (det som då kallades för T&L, Transform & Lighting) och tessellation kom.

Tror du missat deras poäng. RT som teknik finns det få som dissar utan det är tidpunkten av lansering folk kritiserar. Hårdvaran är inte mogen ännu och känns bara rushad.

Skickades från m.sweclockers.com

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Hedersmedlem

En liten uppdatering angående nyheten. Vi (och typ alla andra på nätet) skrev nyheten utifrån en felaktig översättning av Wangs citat. Ber om ursäkt för felet, men diskussionen här i tråden är ändå relevant till nyheten.

Visa signatur

How can we win when fools can be kings?

Permalänk
Medlem

@Xinpei: Och hur vet du att tekniken inte är mogen? Har du sett det i verkligheten? Har du sett hur utvecklare kan använda tekniken? Har du sett prestandan i verkligheten?

Någon måste vara först och driva tekniken framåt. Med ditt tänk så skulle vi fortfarande trycka svartvita pixlar på en MOS-processor för "tekniken är inte mogen än", dvs ingen vågar göra något nytt.

Jag skulle säga att tekniken är väldigt mogen. Raytracing har funnits sedan 80-talet, först nu kan vi börja använda det i realtid. Och spelutvecklarna börjar få problem med komplexiteten kring ljussättning och har länge skrikit efter ett enklare sätt att ljussätta scener. Tadaaa! Realtidraytracing. Begränsad givetvis, men nu kan vi röra oss framåt mot en mer och mer raytracad grafik. Och en dag så kommer vi se dagens statiska ljussättning som vi ser VGA-grafik idag, en antik kuriosa. Men vi måste gå någonstans, även om det är små steg i början tills utvecklarna blivit varma i kläderna.

Permalänk
Medlem
Skrivet av mrpijey:

@Xinpei: Och hur vet du att tekniken inte är mogen? Har du sett det i verkligheten? Har du sett hur utvecklare kan använda tekniken? Har du sett prestandan i verkligheten?

Någon måste vara först och driva tekniken framåt. Med ditt tänk så skulle vi fortfarande trycka svartvita pixlar på en MOS-processor för "tekniken är inte mogen än", dvs ingen vågar göra något nytt.

Jag skulle säga att tekniken är väldigt mogen. Raytracing har funnits sedan 80-talet, först nu kan vi börja använda det i realtid. Och spelutvecklarna börjar få problem med komplexiteten kring ljussättning och har länge skrikit efter ett enklare sätt att ljussätta scener. Tadaaa! Realtidraytracing. Begränsad givetvis, men nu kan vi röra oss framåt mot en mer och mer raytracad grafik. Och en dag så kommer vi se dagens statiska ljussättning som vi ser VGA-grafik idag, en antik kuriosa. Men vi måste gå någonstans, även om det är små steg i början tills utvecklarna blivit varma i kläderna.

Prestanda i verkligheten? Senaste Tomb Raider med ett 2080Ti, runt 30fps i 1080p för vad jag uppfattar var raytracade skuggor.

Nividia borde ha sponsrat ett par studior att använda sig av det i spel, spel som man skulle kunna ha köpt (eller fått bundlat) när korten släpptes, spel som skulle ha sålt det nya med korten. Windows 10 borde ha haft stöd från dag ett.

Istället så fanns det ingenting annat än ord när korten släpptes, inget som recensenterna kunde testa, inget som de som köpte korten kunde spela. Svårt att se hur man kan anse att tekniken är mogen.

När 3d-headseten släpptes så fanns det iallafall spel som utnyttjade vad de var till för.... Inte för att det hjälpte precis, tekniken var inte mogen för den breda publiken.

Permalänk

Tittar man på den här videon så förstår man hur långt borta riktig raytracing är. Turing använder 1 sample per pixel och det är bara för shadows,lights och sen använder dom denoise teknik för att göra bilden skarp. För rikrig RTX så skulle det behövas 100 tals sample/rays per pixel.
Det nvidia kallar RTX är igentligen bara en serie av hacks med nån hundra del riktig RTX.

Den här tekniken kommer aldrig att slå på bred front ibland speltillverkarna förens alla grafikkort eller åtminstone alla kort i 2000-3000 kr klassen stödjer det och då snackar vi fortfarande inte ens riktig RTX. För som det ser ut just nu så måste dom inte bara utveckla spelet för dom utan "RTX" utan också lägga en massa tid och pengar för att lägga till RTX.

https://youtu.be/SrF4k6wJ-do

Visa signatur

Färdiga projekt The legacy of king Khufu.
https://www.sweclockers.com/galleri/2346-the-legacy-of-king-k...
Noctua ramkylare i aluminium: https://youtu.be/JmzCWlq3FKA
Chassie kylning: https://youtu.be/muxjWN7avwA

Permalänk
Medlem
Skrivet av mrpijey:

@Paddanx: Absolut, det är sunt tänk att inte förköpa och att köpa det när behov osv finns, men det betyder ju inte att tekniken i sig är värdelös eller ofunktionell. Precis som med allt annat så är det alltid hönan/ägget som gäller. Tekniken måste finnas för att spel skall kunna använda det, och spelen måste vara gjorda för att kunna spela det, och vi måste ha ett underliggande system färdigt för att kunna utveckla spelen osv osv. Och det tar alltid lite tid med nya saker. Minns du hur DirectX 10 var? Det kom bara till Vista, och tog en bra stund innan det fick fäste bland utvecklarna, och bra tid innan folk gick över till Vista/Win7 osv. Och vill man inte absolut vara på framkant så ska man ju vänta, men då kanske har ett lite mer realistiskt förhållningssätt till tekniken. Ett "jag vet inte hur bra det är" räcker.

Men på sikt är den värdelös för alla andra, tills den inte är det. Vi svämmas över av teknik idag. Saker som ska "lösa dina vardagsproblem", eller göra "upplevelsen bättre". Alla försöker göra skivat bröd om och om igen, och man kan inte satsa på alla av dem.

Så håller 100% med hönan o ägget. Du tar upp DX10... Vista floppa, och DX10 medförde inte något användbart, och även om du tittar på tidig spelutveckling idag, använder man oftast DX9 eller DX11, då DX10 inte har någon direkt fördel (av vad jag sett iaf).

Men ta DX12/Vulkan tex. Jag hade hellre sett Nvidia satsa krut på detta, då det kan medföra förbättringar nu när vi ska över på både 12 och 16+ trådars CPUer. Anledningen varför de inte gör tror jag är för deras DX11 är så optimerad och Win 10 inte riktigt blivit så enkel övergång som man trott.

Så även där har vi en hönan och ägget, och det är ju först när nya DX tekniker får fäste i stora skalan som de blir större, och vi sitter och väntar än där. Så allt kommer ner till.. "vad tjänar jag på det?" AMD och även de flesta av oss spelare, tjänar noll på denna tekniken, idag. Vi kan dock tjäna på både Vulkan och RT, i teorin, men det måste locka massan, inte fåtal, för att göra den nyttan.

Skrivet av mrpijey:

Mitt problem är att folk säger att RTX är skit, kommer vara skit och kommer alltid vara skit fast INGEN har ännu sett en fullt fungerande och optimerad implementation av det. Ungefär som att Tesla skulle släppa en helt ny batteriteknik och innan ens folk sett produkten i action så säger alla unisont att tekniken är skit och kommer inte kunna driva en LED-lampa ens. En massa pseudo-experter som aldrig sett produkten än testat den yttrar sig om dess egenskaper, allt utifrån känsloargument.

Jag hade mina tvivel på att Tesla kunde nå de mål de satt, och de har varit nära ruinens brant i flera år nu. Men de har utan tvekan vänt en hel marknad. Samma var det ju med hybrid-fordon för 15+ år sedan som är standard för vissa tillverkare, och i "halvt-testfas" för andra.

Och batteri-tekniker och även hela konceptet med batteridriven-bil, har aldrig riktigt varit en bra lösning heller. Man måste anpassa sig till bilens räckvidd, vs andra som du bara fyller på med mer bränsle på 2-3 min. Det som fick Tesla att ens ha en chans i helvetet att sälja bilar, var snabbladdningsstationerna.

I båda fall valde marknaden och alla andra att vänta och se... om det lyckas, vet de att tekniken är mogen nog att de själva kan satsa på den. RTX kommer vara något liknande. Man kommer satsa på den när den är mogen nog att accepteras.

Idag... är RTX "skit" imho, inte pga det är dålig teknik, den är rent av fantastisk i sig... men den är lite som det gick med saltvatten batteriet (när vi nu pratade ny batteriteknik). I teorin var den perfekt och vettigt val för alla solceller, vindfarmar och andra varierande energikällor som bara "står", då den hade sämre kapacitet per yta, men priset vägde upp det.

Men det konkade pga det var för svårt att vända en hel marknad från litium celler, som fungerar redan nu, till något nytt. Och RTX måste ändra en hel marknad, vilket inte sker på en dag och du måste ha fördelar som överväger hönan vs ägget. Och som det är nu, är dessa fördelar väldigt små, och få, då långt från alla spel har nytta av det även i perfekt optimalt läge (RTS tex lär inte spela någon roll...)

För mig är det detta som är problemet. Om jag måste sänka prestandan, för att få ljusspårningen, är det totalt ointressant. Jag kan gärna betala för mer prestanda, men jag betalar inte för en prestanda jag måste välja ena eller andra, och RTX är en sådan funktion. Den måste ge en fördel i spelet, kodas i spelet, optimeras för det, och sedan måste kortet orka driva det, vilket vi inte ens vet om de klarar idag. För det priset tom ett 2070 kostar, vill jag veta att det kan, innan köp.

Min åsikt kan mycket väl ändras, precis som den gjorde med AA en gång i tiden när man fick första kortet som kunde ha AA på, och ändå vara mer eller mindre samma prestanda som tidigare. Då var det värt att slå på det, när man inte förlorade något, och som man läser AMDs svar, och även varit min poäng ovan, är att tills dess "är det inte lönt".

Så problemet jag ser är folk som hypar RTX som om det vore... skivat bröd. Låt Nvidia göra klart det först. När det är i stadiet att vi kan jämföra det, och ser fördelar med det, är det dax. För tills jag ser "vad nyttan är", varför ska jag se fram emot det? Vad det kan göra i teorin, hjälper inte mig som slutkund. I teorin skulle vi för 30 år sedan har fusionskraft igång, och idag är den "30 år" framåt. Jag vill ha antingen ägg, eller färdig höna, inte en berättelse om att om jag kan starta en farm och kanske en dag få det.

Jag ser fram emot vätgas-bränslecell bilen också, men efter att ha tittat på bla Mira och pratat med Toyota representanter om den, inser man att där är många hinder kvar, som tidiga ägare kommer betala dyra pengar för att "testa fram". Och RTX korten du köper nu, ligger i samma fas. Innan du ens kommer kunna få RTX att fungera... vad kommer tom 2080Ti korten sjunkit till? Folk som lade 15kkr har ju redan tappat 2kkr (om de nu köpte det för RTX funktionen), i värde på något de inte fått än.

Skrivet av mrpijey:

Det är en hel del spel på väg ut som kommer använda sig av RT väldigt mycket (Metro Exodus t.ex) och RT är ju aldrig tänkt att ersätta traditionell rendering, i alla fall inte just nu. Med tiden då RT blir bättre och snabbare så kommer det till slut ersätta traditionell rendering, men vi är säkert 10-15 generationer bort innan dess. Tills dess så kommer RT balanseras i spelen och kombineras med vanlig rendering för bästa grafiska kvalitet.

Och jag lovar dig, blir tekniken bra, och faktiskt värt att ersätta traditionell rendering, är det helt klart en teknik jag också vill köpa. Precis som jag valde att inte ta hybrid på förra bilen, men valde det på denna (då man såg den mogen, till rätt pris), och jag kommer gärna köpa kort med Ray Traceing dagen den ger mig fördelar, är mogen och utan att kosta skjortan.

Men du gör en farlig sak här... du "antar" att just "denna" RT teknik, blir standard om 10-15 generationer. Detta är ju lite vad tidiga DX kort visat flera gånger, att även om du kan ge teoretiskt stöd för äldre kort, är de sällan väl optimerade för dagens krav. Finns ju "DX12 och DX11" kort idag som är gamla, med 1GB VRAM... lycka till att driva något med det idag.

Så jag vågar säga att oddsen att 2080Ti kommer driva RT bra om antal generationer, är rätt låg. Första versionen är sällan bra av någon hårdvara, för du har alltid designmissar, eller optimeringar som gör version 2 så mycket bättre. Så även om du vill hylla tekniken i sig, är den på tok för omogen att ens finnas på marknaden just nu i mer än "demo på vad den kan göra om 10 år".

Permalänk
Hjälpsam
Skrivet av Epic:

En liten uppdatering angående nyheten. Vi (och typ alla andra på nätet) skrev nyheten utifrån en felaktig översättning av Wangs citat. Ber om ursäkt för felet, men diskussionen här i tråden är ändå relevant till nyheten.

Så din Japanska är lite rostig?
Ni var verkligen inte ensamma om det.
Jag borde skickat in en rättelse, när jag upptäckte saken.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Riktig raytracing ligger säkerligen minst 10år fram i tiden om jag ska gissa.
Hybrid raytracing börjar vi se redan nu men prestandan är inte riktigt i topp än och lär inte vara det på flera år.
Om några generationer så kommer nuvarande DXR och vulkan raytracing att fungera betydligt bättre och erhålla acceptabel nivå av fps och till hög upplösning.
Tyvärr så tar det inte slut där utan då är det istället dags att använda mer raytracing vilket i sin tur kommer slöa ner även nyare generationer av grafikkort.
Denna typen av katt och råtta förfarande kommer vi få se under lång tid framöver.
I ärlighetens namn så gör raytracing att vissa grafiska element ser mer verklighetstroget ut men det är inget revolutionerande som man måste ha även om det ger en viss mindshare vilket gör att många köpare vill ha stöd den nya tekniken även om det inte kommer användas.
Personligen så anser jag att raytracing i dess nuvarande form är mer av ett försäljningsargument än något revolutionerande grafiskt .
Däremot är jag säker på att större spelstudior kommer införa stöd för den nya tekniken även om det inte används i någon större utsträckning av de som spelar spelen.