AMD: "Ett tag kvar innan DirectX Raytracing slår igenom på riktigt"

Permalänk
Hjälpsam
Skrivet av Olle P:

Det är ju lite här som skon klämmer.
I dagsläget innebär RTX merarbete för programutvecklarna, även om själva implementeringen i sig går enklare och snabbare än för den rastreringsimplementation de också gjort.
Denna faktor kan (i närtid) leda tre vägar:
1. Både rastrering och RT blir noggrant implementerade. Kostar relativt mycket tid och resurser för utvecklaren, som till viss del troligen kompenseras av subventioner från Nvidia.
2. Man jobbar på med rastrering som vanligt, eftersom den tekniken är enda alternativet för >95% av kunderna. RT implementeras lite styvmoderligt, huvudsakligen som en marknadsföringsgrej och kanske för att få ta del av Nvidias pengar. De kunder som spenderat stora pengar på RTX-kort upplever att RT är "meh".
3. Man lägger, med benäget bistånd från Nvidia, en massa arbete på bra RT-implementering och drar ner på arbetet med rastrerad grafik. Dels för att kapa utvecklingskostnaderna, men också för att kunna "(be)visa" hur mycket bättre grafik man får med RT än utan. Alla kunder som inte har RT-kort blir lidande.

För oss kunder är alternativ ett uppenbarligen bra, så länge inte produkterna stiger hutlöst i pris för att kompensera den adderade utvecklingskostnaden.
Alternativ två drabbar i alla fall ingen fattig...

AMD är ju fullt medvetna om att volymförsäljningen ligger i kort <3000kr, och det finns inte en chans i världen att man kan få (tillräckligt) bra RT till kort <2000kr än på ett tag.

Tror att de flest kommer att köra alternativ 2.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av mrpijey:

@Xinpei: Och hur vet du att tekniken inte är mogen? Har du sett det i verkligheten? Har du sett hur utvecklare kan använda tekniken? Har du sett prestandan i verkligheten?

Någon måste vara först och driva tekniken framåt. Med ditt tänk så skulle vi fortfarande trycka svartvita pixlar på en MOS-processor för "tekniken är inte mogen än", dvs ingen vågar göra något nytt.

Jag skulle säga att tekniken är väldigt mogen. Raytracing har funnits sedan 80-talet, först nu kan vi börja använda det i realtid. Och spelutvecklarna börjar få problem med komplexiteten kring ljussättning och har länge skrikit efter ett enklare sätt att ljussätta scener. Tadaaa! Realtidraytracing. Begränsad givetvis, men nu kan vi röra oss framåt mot en mer och mer raytracad grafik. Och en dag så kommer vi se dagens statiska ljussättning som vi ser VGA-grafik idag, en antik kuriosa. Men vi måste gå någonstans, även om det är små steg i början tills utvecklarna blivit varma i kläderna.

Problemet är ju (som en del skrivit i tråden innan) att nVIdias RTRT inte tar bort de problem som utvecklarna har i rasterisering, den byter bara ut det mot en annan, mer resurskrävande implementering.
Jag tycker att det som gjorts med raytracing ser otroligt snyggt ut, men det enda vi fått se av implementering i spel har varit undermåligt sett till prestanda (därav min skepticisms till hur bra det kommer att vara den här generationen.
Som personen under mig skriver ser jag mer fram emot när ALLT görs genom Pathtracing, vilket kommer kräva en hel del mer kraft än vad dagens grafikkort klarar (dock inte omöjliga mängder), och utvecklarna slipper ALLA problem som finns med rasterisering .

Skrivet av Tapperswe:

Tittar man på den här videon så förstår man hur långt borta riktig raytracing är. Turing använder 1 sample per pixel och det är bara för shadows,lights och sen använder dom denoise teknik för att göra bilden skarp. För rikrig RTX så skulle det behövas 100 tals sample/rays per pixel.
Det nvidia kallar RTX är igentligen bara en serie of hacks med nån hundra del riktig RTX.

Den här tekniken kommer aldrig att slå på bred front ibland speltillverkarna förens alla grafikkort eller åtminstone alla kort i 2000-3000 kr klassen stödjer det och då snackar vi fortfarande inte ens riktig RTX. För som det ser ut just nu så måste dom inte bara utveckla spelet för dom utan "RTX" utan också lägga en massa tid och pengar för att lägga till RTX.

https://youtu.be/SrF4k6wJ-do

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem
Skrivet av Ratatosk:

Så din Japanska är lite rostig?
Ni var verkligen inte ensamma om det.
Jag borde skickat in en rättelse, när jag upptäckte saken.

Är din Japanska så vass så kanske du kan översätta mer av den artikeln informationen kommer ifrån.

Permalänk
Hedersmedlem
Skrivet av Ratatosk:

Så din Japanska är lite rostig?
Ni var verkligen inte ensamma om det.
Jag borde skickat in en rättelse, när jag upptäckte saken.

Haha japp, får jobba på den lite. Ja, rättelser på såna här saker uppskattas!

Visa signatur

How can we win when fools can be kings?

Permalänk
Hjälpsam
Skrivet av Snubb1:

Är din Japanska så vass så kanske du kan översätta mer av den artikeln informationen kommer ifrån.

Ja visst!

Översätter till engelska, hoppas att det duger, så här sa han.

"Mr. Wang said that "AMD will definitely respond to DXR," after preposing that "This is a personal view", but "For the time being, AMD is providing it free of charge" We will focus on improving the offline CG production environment centered on Radeon ProRender ".
"The spread of Ray-Tracing's game will not go unless the GPU will be able to use Ray-Tracing in all ranges from low end to high end," he said."

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Panzerfister:

Det ser inte ljusare ut för tanken på separata RT-kort om de hade kopplats till ett gtx-kort via NV-Link?
Ska ju vara så väldans snabba så pass att korten kan jobba som ett kort.

Tänker mig att ett av Nvidias kommande dedikerade raytracing-kort RT3100 (Svårt gissa produktnamn på fiktiva produkter...) kan kopplas med ett GTX3060 för att kunna köra raytracing, eller att samma RT3100 kan stötta upp ett RTX3080 för att höja rt-prestandan.

NV-Link tar ju förstås det hela närmare realitet. Det är ett enormt kliv från vanlig SLI. På konsument Turing så är den typ 12 ggr snabbare än HB SLI, 25GB/s mot 2GB/s om jag inte minns fel. Tror det är 50GB/s på deras enterprise kort.

Men fortfarande så är både 25 och 50 mycket mindre än vad ett 2080ti har med sina interna 616GB/s. Och med HBM kan du ju lyfta den siffran till 1TB/s utan problem. Blir svårt att hålla samma minne då utan att flaskhalsa rejält.

Jag tror nån måste komma på en snillrik algoritm för datorgrafik som underlättar delande av minne för att det ska funka riktigt bra.

Skickades från m.sweclockers.com

Permalänk
Medlem

@Ratatosk: Snubb1 menade nog att du skulle översätta mer av denna artikel, den där översättningen är ju från Overclock3D-artikeln som det redan länkas till i denna nyhet.

Permalänk
Medlem

Borde ha börjat med dedikerat kort för detta i början istället för att baka in något dyrt som 99% av befolkningen inte kommer eller ens kan utnyttja.

Lite som fysikorten när de släpptes, Aegis eller vad de nu hette som sedan bakades in i Nvidias kort.

Permalänk
Hjälpsam
Skrivet av Snubb1:

Är din Japanska så vass så kanske du kan översätta mer av den artikeln informationen kommer ifrån.

Skrivet av perost:

@Ratatosk: Snubb1 menade nog att du skulle översätta mer av denna artikel, den där översättningen är ju från Overclock3D-artikeln som det redan länkas till i denna nyhet.

#17636861

Jag har använt i mina senaste inlägg, vet ni inte betydelsen av. ?

Betyder att det är skämtsamt menat och att det inte skall tas på allvar.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av mrpijey:

En annan idiot väntar väl på att de släpper det live, färdigpatchat och optimerat så att man faktiskt får se vad man får för prestanda innan man dömer ut tekniken. Men gissar på att ni var lika misstänksamma och utdömande när shaders (det som då kallades för T&L, Transform & Lighting) och tessellation kom.

Mitt första grafikkort som hade stöd för Hardware Transform & Lighting var ett GeForce 4 MX 440.
Kommer inte ihåg vad jag gav för det. Men googlade och hittade någon artikel om att release priset skulle vara $149.
Sen provade jag någon inflation calculator som fick att $149 2002 skulle motsvara ca $210 år 2018.
Hade jag kunnat köpa ett helt nytt GeForce RTX 2070, inte stulet eller dylikt, helt lagligt för under 3000kr så hade jag inte tvekat.

Av vad man har sett hittills så verkar det vara någonstans runt RTX 2080 prestanda som krävs för att det ska bli något vettigt av realtids raytracing i 1080p.

För de som har nytta av realtids raytracing i professionella tillämpningar så kan säker de nya RTX korten vara ett bra köp redan nu.
Men för folk som bara spelar för nöjes skull. Så tror jag att det största problemet med RTX 2080/2080Ti inte är tekniken eller prestandan, även om det finns utrymme för förbättringar i framtiden. För många är det nog snarare priset som är det största problemet.

En dag (förhoppningsvis) så kommer det finnas grafikkort som presterar bättre än RTX 2080 och kostar under $500.
Jag tror det finns potential för realtids raytracing.
Men jag tror inte att det blir någon stor succé 2018-2019, åtminstone inte för spel.

Permalänk
Medlem

Den där rättelsen ändrade storyn rätt grundläggande

Visa signatur

Huvudriggen är en Gigabyte Aorus Xtreme | 128gb DDR5 6000 | Ryzen 7950X | 3080Ti
Utöver det är det för många datorer, boxar och servar för att lista :P

Permalänk
Medlem
Skrivet av mrpijey:

@Xinpei: Och hur vet du att tekniken inte är mogen? Har du sett det i verkligheten? Har du sett hur utvecklare kan använda tekniken? Har du sett prestandan i verkligheten?

Någon måste vara först och driva tekniken framåt. Med ditt tänk så skulle vi fortfarande trycka svartvita pixlar på en MOS-processor för "tekniken är inte mogen än", dvs ingen vågar göra något nytt.

Jag skulle säga att tekniken är väldigt mogen. Raytracing har funnits sedan 80-talet, först nu kan vi börja använda det i realtid. Och spelutvecklarna börjar få problem med komplexiteten kring ljussättning och har länge skrikit efter ett enklare sätt att ljussätta scener. Tadaaa! Realtidraytracing. Begränsad givetvis, men nu kan vi röra oss framåt mot en mer och mer raytracad grafik. Och en dag så kommer vi se dagens statiska ljussättning som vi ser VGA-grafik idag, en antik kuriosa. Men vi måste gå någonstans, även om det är små steg i början tills utvecklarna blivit varma i kläderna.

Om tekniken varit mogen så hade dels alla tech-demos presterat betydligt bättre men framförallt... Tekniken hade inte skjutits upp som den gjort. Och framförallt... Man hade använt den fullständigt och inte bara tagit och lånat lite funktioner här och där beroende på titel.

Observera att jag pratar om Nvidias implementerande av sagda teknik och inte tekniken själv. Inte för att jag tvivlar att Nvidia kommer att få det att fungera felfritt I SINOM TID (vilket är själva poängen i de flestas kommentarer av vad jag kunnat se) MEN det är inte idag. Och det är antagligen inte imorgon heller. Vi pratar minst två generationer bort. Och därför känns hela tekniken, på denna nivå dvs, utrushad och ofärdig. Allt för att kunna lansera en produkt som inte presterade riktigt vad folk förväntade sig men med en sellpitch. Tänk dig AMD och Fury-serien där den största (och eventuellt enda) var HBM minnen.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem
Skrivet av perost:

@Ratatosk: Snubb1 menade nog att du skulle översätta mer av denna artikel, den där översättningen är ju från Overclock3D-artikeln som det redan länkas till i denna nyhet.

Exakt vad jag menade.

Skrivet av Ratatosk:

#17636861

Jag har använt i mina senaste inlägg, vet ni inte betydelsen av. ?
31+20+16
Betyder att det är skämtsamt menat och att det inte skall tas på allvar.

Jag som på allvar trodde du kunde Japanska även i skrift nu är jag inte lika imponerad längre.
Jag har en bekant som är grym på Japanska och har studerat ett tag i Japan men det är inte lönt att fråga då jag antar att mycket är tekniskt och svårt att översätta då hon inte är teknik intresserad.

Permalänk
Hjälpsam

@Snubb1: Nej jag kan ingen japanska.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Ratatosk:

#17636861

Jag har använt i mina senaste inlägg, vet ni inte betydelsen av. ?

Nej, vi vet inte

Bäst du lär dig Japanska... snabbt!

Permalänk
Medlem
Skrivet av Ratatosk:

@Snubb1: Nej jag kan ingen japanska.

VA? nä det accepteras inte, bara att börja plugga.
http://www.folkuniversitetet.se/Kurser--Utbildningar/Sprakkur...
https://www.kurser.se/kurs/japanska
Pluggar du Japanska så går jag en kurs i vett och etikett