Vill du vara del av diskussionerna i forumet, ställa frågor eller hjälpa andra? Registrera dig här!

Kommer RTX alltid vara en grej?

Trädvy Permalänk
Medlem
Plats
Kalmar
Registrerad
Okt 2011

Kommer RTX alltid vara en grej?

Hej!

Sitter och funderar på ifall RTX kommer bli standard? Jag har svårt att se att de skulle släppa en, säg 3080 med RTX för 10.000 och ett utan RTX för 8000. Jag vet att det kanske är omöjligt att svara på men jag bryr mig inte ens lite om RTX men ändå måste jag punga ut tusentals kronor pga att de har just det.
'' Gå AMD då ''. Sitter på en 8.000kr G sync skärm, så är körd där.

Lite spekulationer enbart såklart men känns som att vi måste nå ett pristak snart. Personligen är 15.000 alldeles för dyrt för det bästa grafikkortet. kostade inte 1080ti typ 9000? vill inte ens veta vad nästa generations flagskäpp kort kommer kosta.

i7 9700k @ 5.0 Ghz - Asus Rog Strix OC 2080 Super - 3200mhz 16gb
Gigabyte UD Z390 - Dark Rock Pro 4 - M.2 SSD MP510 - AOC 24G2U
Ducky One 2 Mini - Logitech G PRO Mus - QC35II Headset

Trädvy Permalänk
Medlem
Registrerad
Nov 2014

Ja. Inom branschen är i stort sett alla överens om att ray tracing är framtiden inom spel och jag är övertygad om att det inom en generation kort eller två inte kommer att finnas kort utan ray tracing bortsett från de absolut billigaste budgetmodellerna. I och med att både PS5 och nästa Xbox kommer att ha stöd för det så sätter de standarden.

Skickades från m.sweclockers.com

Define C | MSI B450 PRO Carbon AC | AMD 3700X | Noctua NH-U14S | 32GB Corsair Vengeance 3200MHz | Corsair RM750x | 970 EVO+ 1TB NVMe | EVGA 2080 XC Ultra | Samsung U32J590 4K

Trädvy Permalänk
Hedersmedlem
Plats
Omnipresent
Registrerad
Okt 2004
Skrivet av KlyfftPotatis:

Hej!

Sitter och funderar på ifall RTX kommer bli standard? Jag har svårt att se att de skulle släppa en, säg 3080 med RTX för 10.000 och ett utan RTX för 8000. Jag vet att det kanske är omöjligt att svara på men jag bryr mig inte ens lite om RTX men ändå måste jag punga ut tusentals kronor pga att de har just det.
'' Gå AMD då ''. Sitter på en 8.000kr G sync skärm, så är körd där.

Lite spekulationer enbart såklart men känns som att vi måste nå ett pristak snart. Personligen är 15.000 alldeles för dyrt för det bästa grafikkortet. kostade inte 1080ti typ 9000? vill inte ens veta vad nästa generations flagskäpp kort kommer kosta.

Enligt de flesta bedömare jag läst och sett så är det en "feature" som kommer att vara kvar och utvecklas framöver, så att köpa ett sådant kort är ju inte "fel".
Dock skulle inte jag gå all in på detta, iaf inte denna generation då mycket återstår rent prestandamässigt, även med de nya Superkorten + Ti varianten på 2080. Så standard kommer det att bli någon gång i framtiden.

Gud är Död! - Nietzsche
Nietzsche är Död! - Gud

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Nov 2018

Ja, inom två generationer grafikkort kommer hårdvaruaccelererad RT bli standard. Helt övertygad om det!

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 3900X | CPU-kylare: be quiet! Dark Rock Pro 4 | RAM: Corsair Vengeance 32 GB (4x8) DDR4-3000 CL15 LPX | GPU: Palit RTX 2080 Ti 11 GB GamingPro OC | SSD: Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: be quiet! Silent Base 801 | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Trädvy Permalänk
Medlem
Plats
Sthlm
Registrerad
Feb 2007

@ågren: frågan var om RTX kommer diktera standarden, dvs tensor cores. Min gissning är att det är en fluga som kommer kringgås på andra sätt från AMDs sida. Och är det ingen fluga så kommer det kanske fortsätta vara standard hos nvidia. Vad gäller G-sync så tror jag det kommer dö ut eftersom freesync funkar med nvidia-kort. Funkar inte freesync på G-syncskärmar? Själv använder jag aldrig adaptiv synkteknologi.

Gilla min Guide till sweclockers tävlingen! :D : #12510535

Min Sweclockers-låt som aldrig deltog i Jultävlingen. Enjoy! https://www.youtube.com/watch?feature=player_embedded&v=g7gof...

Trädvy Permalänk
Medlem
Plats
Solna
Registrerad
Mar 2019

RTX kommer utvecklas och tillverkare kommer hitta på nya sätt att ge användarna en mer realistisk och vacker spelupplevelse.

Dock idag är RTX så där. Få titlar och extremt få kort som klarar av att ge någorlunda stabil framerate med RTX i högre upplösningar.

Vill du ha rtx idag (när den är halvdan enligt mitt tycke) så köp MINST 2080 super, helst 2080ti.

Om några generationer när tekniken utvecklas och blir en branschstandard kommer RTX 2xxx serien vara uråldriga och kommer behöva bytas ändå.
Det finns flera klipp på youtube som förklarar att ett extremt kraftigt grafikkort idag ska inte ses som framtidssäkerhet. Tekniken utvecklas och nya lösningar tas fram. Kolla hur bra ett 1080ti klarar av Quake2 med RTX. inte bra alls.
Kraftiga grafikkort köps om du vill ha max möjlig prestanda idag, inget annat.

Ryzen 2700 - be quiet Dark Rock 4
MSI B450 Gaming Pro Carbon AC WiFi - G.Skill TridentZ 16GB 3200c14
Palit RTX 2070 Dual - Samsung C27HG70 Curved 1440p 144hz
Fractal Design Define R6 Vit TG - Corsair rm750x v2
SSD Samsung 860 EVO @ 500MB - SSD Intel 660p @ 1TB

Trädvy Permalänk
Medlem
Plats
Gävleborg
Registrerad
Apr 2008
Skrivet av Chris_Kadaver:

@ågren: frågan var om RTX kommer diktera standarden, dvs tensor cores. Min gissning är att det är en fluga som kommer kringgås på andra sätt från AMDs sida. Och är det ingen fluga så kommer det kanske fortsätta vara standard hos nvidia. Vad gäller G-sync så tror jag det kommer dö ut eftersom freesync funkar med nvidia-kort. Funkar inte freesync på G-syncskärmar? Själv använder jag aldrig adaptiv synkteknologi.

Som jag förstår det så ligger framtiden för RT just inom specialiserat kisel då det är såpass intensivt, i detta fallet RT-kärnor (tensor är för maskinlärning/AI etc). AMD kommer helt enkelt att behöva ta fram sin egna variant förr eller senare om de inte lyckas göra någon form av hybridlösning.

Poängen med detta är ju att kunna accelerera RT oavsett vilket gränssnitt som körs i mjukvaran och därmed avlasta GPUns normala funktionalitet.

I min mening ligger framtiden inom strålspårning/RT just i att kunna sköta sådant i realtid som utvecklare idag får lägga mycket tid och möda och trixande på för att få det bra inom ljussättning. Däremot är det relativt långt kvar dit... Men en vacker dag.

Åbäke mk2: Ryzen 2600, MSI B450 Tomahawk, 16GB Hynix CJR @ 3400/CL14, 2x500GB Samsung 850 Evo, EVGA 1070 FTW, Xonar STX.

Project Subzilla (subwoofer till hemmabion)

Trädvy Permalänk
Medlem
Plats
Solna
Registrerad
Mar 2019
Skrivet av roxkz:

Poängen med detta är ju att kunna accelerera RT oavsett vilket gränssnitt som körs i mjukvaran och därmed avlasta GPUns normala funktionalitet.

Så du menar när jag kör tex Metro Exodus utan Ray Tracing på mitt 2070 och har 70FPS så jobbar alla cuda kärnor för fullt och RT kärnor sover gott.
När jag sedan aktiverar Ray Tracing och går ner till 30 fps, så jobbar alla cuda kärnor precis lika mycket som tidigare och RT kärnorna vaknar och sänker min prestanda med 50%????

Ryzen 2700 - be quiet Dark Rock 4
MSI B450 Gaming Pro Carbon AC WiFi - G.Skill TridentZ 16GB 3200c14
Palit RTX 2070 Dual - Samsung C27HG70 Curved 1440p 144hz
Fractal Design Define R6 Vit TG - Corsair rm750x v2
SSD Samsung 860 EVO @ 500MB - SSD Intel 660p @ 1TB

Trädvy Permalänk
Medlem
Plats
Linköping
Registrerad
Jun 2007
Skrivet av Chris_Kadaver:

frågan var om RTX kommer diktera standarden, dvs tensor cores.

Tensor-kärnorna är till för maskininlärning, t.ex. DLSS, och har inget med ray tracing att göra. Det är RT-kärnorna som används för ray tracing på RTX-korten. Spelprogrammerarna använder för övrigt inte RT-kärnorna direkt, utan använder t.ex. DirectX Raytracing (DXR) API:et eller Vulkans motsvarighet. Ray tracing i nuvarande spel är alltså inte något som är låst till NVIDIA, utan det är baserat på öppna API:er som AMD och Intel också lär implementera stöd för i sinom tid.

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Nov 2018
Skrivet av Savage_Gray:

Så du menar när jag kör tex Metro Exodus utan Ray Tracing på mitt 2070 och har 70FPS så jobbar alla cuda kärnor för fullt och RT kärnor sover gott.
När jag sedan aktiverar Ray Tracing och går ner till 30 fps, så jobbar alla cuda kärnor precis lika mycket som tidigare och RT kärnorna vaknar och sänker min prestanda med 50%????

Gissningvis är den långsammaste komponenten i skapandet av en bildruta den som sätter gränsen. Så förmodligen jobbar de "vanliga" delarna av grafikkretsen långsammare när det är RT-specifika saker som slås på, och sänker bildfrekvensen.

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 3900X | CPU-kylare: be quiet! Dark Rock Pro 4 | RAM: Corsair Vengeance 32 GB (4x8) DDR4-3000 CL15 LPX | GPU: Palit RTX 2080 Ti 11 GB GamingPro OC | SSD: Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: be quiet! Silent Base 801 | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Trädvy Permalänk
Medlem
Plats
Gävleborg
Registrerad
Apr 2008
Skrivet av Savage_Gray:

Så du menar när jag kör tex Metro Exodus utan Ray Tracing på mitt 2070 och har 70FPS så jobbar alla cuda kärnor för fullt och RT kärnor sover gott.

Ja.

Skrivet av Savage_Gray:

När jag sedan aktiverar Ray Tracing och går ner till 30 fps, så jobbar alla cuda kärnor precis lika mycket som tidigare och RT kärnorna vaknar och sänker min prestanda med 50%????

Nej, Dina RT-kärnor accelererar Ray Tracingen så dina Cuda-kärnor kan sköta sitt som vanligt när de aktiveras. Det du ser är en prestandaökning på ungefär 300% mot fallet RT-kärnorna skulle ligga i vila när Ray Tracing är aktiverat.

Däremot är dagens RT-kärnor inte snabba nog för att uppnå fullgod prestanda riktigt, i kombination med att utvecklarna inte fått styr på allt ännu.

Åbäke mk2: Ryzen 2600, MSI B450 Tomahawk, 16GB Hynix CJR @ 3400/CL14, 2x500GB Samsung 850 Evo, EVGA 1070 FTW, Xonar STX.

Project Subzilla (subwoofer till hemmabion)

Trädvy Permalänk
Medlem
Plats
Kalmar
Registrerad
Okt 2011

Tror ni 2080 TI kommer ''bli'' ett 1080ti? Dvs lite för bra för nvidias egna bästa, så den håller standarden nästa generation också

i7 9700k @ 5.0 Ghz - Asus Rog Strix OC 2080 Super - 3200mhz 16gb
Gigabyte UD Z390 - Dark Rock Pro 4 - M.2 SSD MP510 - AOC 24G2U
Ducky One 2 Mini - Logitech G PRO Mus - QC35II Headset

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Jul 2001

Det beror på vad som menas. Jag tror intresset för raytracing kommer stanna, men jag tror inte att nvidias propreitära lösningar kommer bestå över tid.

Ubuntu | 1440p IPS | 7700k | 1080ti | 32GB@3.6GHz | 960 Pro 1TB
MBP 13" Retina 2014 | iPhone 7+

Trädvy Permalänk
Medlem
Plats
Hässleholm
Registrerad
Jun 2011

när de flesta spelen har ray tracing kommer du nog inte kunna köpa ett grafikkort utan ray tracing heller. Nu är det lite mer av en gimmick men skadar ju som sagt inte att ha möjligheten till det redan nu

Trädvy Permalänk
Medlem
Plats
Kryptan
Registrerad
Nov 2004

Ray tracing är här för att stanna. Vad jag tror kommer att hända är att det kommer först som nu att fläskas på ordentligt just för att visa upp det osv. Sen kommer det att användas lite mer måttfullt medans dom lär sig implementera RT optimalt och under tiden blir grafikkorten bättre på att hantera det.

Plötsligt bara är det där precis som anti-aliasing och alla andra bildinställningar vi har idag.

CPU: I7 2600k @ 4.4ghz med Noctua NH-D14 GPU: GTX 1070 med Accelero Xtreme III @2 120mm cf-v12hp hydro dynamic @skitsnabbt. MODERKORT: Gigabyte GA-Z77X-UD3H. RAM: 16GB DDR3 PC19200/2400MHz@2133MHz. HÅRDDISK: Samsung 850 EVO 250GB SSD, Intel SSD 320 Series 160GB , 4 Mekaniska. MONITOR:1 Samsung S27A950D 3D" MONITOR:2 Samsung 2693HM 25,5" MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Trädvy Permalänk
Medlem
Registrerad
Feb 2005

Kommer Google Stadia ha stöd för det?

Trädvy Permalänk
Medlem
Plats
Finland
Registrerad
Jun 2004

Ray Tracing är nog här för att stanna men RTX, dvs Nvidias standard för ray tracing, tror jag inte så mycket på.

AMD tillverkar hårdvaran för nästa Xbox och PS5. Den lösning för ray tracing som implementeras där kommer nog bli den ledande lösningen för ray tracing på PC också.

Trädvy Permalänk
Medlem
Registrerad
Jan 2017
Skrivet av hg:

AMD tillverkar hårdvaran för nästa Xbox och PS5. Den lösning för ray tracing som implementeras där kommer nog bli den ledande lösningen för ray tracing på PC också.

Den som är specificerad i DX12 menar du? Känns orimligt att AMD frångår Microsofts standard på deras egen konsol.

Skickades från m.sweclockers.com

Trädvy Permalänk
Medlem
Plats
Finland
Registrerad
Jun 2004
Skrivet av Kwirek:

Den som är specificerad i DX12 menar du? Känns orimligt att AMD frångår Microsofts standard på deras egen konsol.

Skickades från m.sweclockers.com

Ja det lär väl nog högst troligtvis byggas utifrån en integrering med Microsofts DXR-tillägg till DX12, iaf till Xbox. Ingen aning när det gäller Playstation.

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Nov 2018
Skrivet av hg:

Ray Tracing är nog här för att stanna men RTX, dvs Nvidias standard för ray tracing, tror jag inte så mycket på.

AMD tillverkar hårdvaran för nästa Xbox och PS5. Den lösning för ray tracing som implementeras där kommer nog bli den ledande lösningen för ray tracing på PC också.

Nog är väl Nvidias "lösning" en hårdvarulösning för DXR, som är en standard i DirectX?

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 3900X | CPU-kylare: be quiet! Dark Rock Pro 4 | RAM: Corsair Vengeance 32 GB (4x8) DDR4-3000 CL15 LPX | GPU: Palit RTX 2080 Ti 11 GB GamingPro OC | SSD: Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: be quiet! Silent Base 801 | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Trädvy Permalänk
Medlem
Plats
Sverige
Registrerad
Jan 2005
Skrivet av hg:

Ray Tracing är nog här för att stanna men RTX, dvs Nvidias standard för ray tracing, tror jag inte så mycket på.

AMD tillverkar hårdvaran för nästa Xbox och PS5. Den lösning för ray tracing som implementeras där kommer nog bli den ledande lösningen för ray tracing på PC också.

Skrivet av cyklonen:

Nog är väl Nvidias "lösning" en hårdvarulösning för DXR, som är en standard i DirectX?

Ja så är det väl. RTX är bara Nvidias namn på hårdvaruacceleration av DXR.

/hulle.

A600, 2 MB Chipram, 85 MB HD, Extra diskettstation, Joysticks: Tac-2, The Bug och Wico Red Ball.
Zotamedu:"Kompressorkylning är nog det mest miljöfarliga du kan göra med en dator om du inte tänker börja elda brunkol i den."

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Mar 2017

Ja, RTX kommer nog att fortsätta. Det är en kostnadseffektiv åtgärd som handlar om att skapa samma chip för många marknader, datacenter som till PC. Att göra vissa kort med tensor och RT cores, och vissa utan är en dyrare affär för NVIDIA. Så egentligen är det nog inte så att 2080ti kostar tusentals kronor extra att tillverka p.g.a tensor cores och RT cores, utan det är många delar av korten som tar upp mer yta också (t.ex cache, simultan FP och INT exekvering, etc.).
Utöver det så har de sålt in en bild att det ska vara så, så kommer de göra allt i sin makt för att se till att det blir så.

(Sedan så kan konkurrens med Intel och AMD komma i vägen, och då kan prisbilden bli lite bättre, förhoppningsvis)

Skrivet av perost:

Tensor-kärnorna är till för maskininlärning, t.ex. DLSS, och har inget med ray tracing att göra. Det är RT-kärnorna som används för ray tracing på RTX-korten.

För det första så har du rätt, tensor cores används för träning och slutledning inom maskininlärning.

För det andra så har du fel. Maskininlärning har med många många olika saker att göra, inklusive ray tracing.
Vi börjar med den där presentationen läderjackan höll när RTX introducerades. "Because of two fundamentally new technologies, we're able to bring it to today. And those two technologies... ray tracing acceleration with the RT core, and deep learning with the tensor core." Så nej, de är inte helt oberoende. För ray tracing så kan de användas till t.ex denoising eller upskalning (DLSS) eller båda.

Vad han kallar "slightly lower resolution" verkar vara 1/4 så många pixlar (mät staplarna). Så 4k = 1080p. 1080p=540p. Dessutom är testen som de utför söndertränade i vem vet hur många veckor/månader på en superdator i perfekta slingor och hela världen är synlig? DLSS i de allra flesta spel idag är väldigt jämförbar med vanlig resolution scaling, i några enstaka fall är den lite bättre. Men de kapitulerade i stort sett när Control släpptes. "Vi approximerade det och kallade det för DLSS (även om det inte är det), men vi har 110 tensor teraflops! Men vi slår fortfarande inte approximationen i alla fall, men kanske i framtiden ¯\_(ツ)_/¯". Så de hade all kraft i världen, men lyckades ändå inte få det att fungera så bra, ännu/på Turing. Vem vet, kanske de får det att fungera, eller inte. Men de annonserade att det fungerade från dag 1, så lite udda att ändra sig efter 1 år.

Så kvar har vi AI denoising, vilket används i exakt 0 spel idag. Detta hör lite ihop med föregående punkt om att de inte riktigt fått DLSS att funka bra. Vad är då chanserna att få AI denoising att fungera bra (som man också måste träna!). AMD har dock introducerat en AI denoiser i professionella sammanhang m.h.a DirectML. Där får de samma kvalité 18x snabbare än utan denoising (detta var på en Vega 14nm, så ingen särskilda ML instruktioner kan ha använts, dessa introducerades först i Vega 7nm och vissa versioner av Navi). Jag har en känsla att det kommer vara en del av många spel när det väl är dags. (Btw, 18x är som minst ~3x så stor förbättring som med RT cores för Turing. Det är därför jag säger att ML trots allt kan vara en del av ray tracing, om inte viktigare)

Inte direkt riktat till dig. Men ai kan också ha andra användningsområden inom spel, t.ex bestämma hur snubbar ska bete sig, räkna ut fysik 300x snabbare, animationer, etc. Det är alltså osannolikt att de skulle ta bort tensor cores nu. Helst skulle jag vilja se att de får till så att tensor cores kan köras helt separat från shaders. Då kan man t.ex uppskala en bild medan de renderar nästa bild (parallellisering). Det är det som är ett av de stora problemen idag, de dedicerar tid på tensor cores som lika gärna kunde ha använts av shaders och RT cores, och slutprodukten blir att skillnaden är för liten jämfört med att köra shaders hela tiden med en lite högre upplösning...

Trädvy Permalänk
Medlem
Plats
Finland
Registrerad
Jun 2004
Skrivet av cyklonen:

Nog är väl Nvidias "lösning" en hårdvarulösning för DXR, som är en standard i DirectX?

Skrivet av Hulle:

Ja så är det väl. RTX är bara Nvidias namn på hårdvaruacceleration av DXR.

/hulle.

Njaä inte precis. RTX är en "development platform" primärt för Ray Tracing. Den har integration till Vulkan och DX12 (via Microsofts DXR tillägg). RTX är en proprietär teknik som funkar endast på Nvidias hårdvara.

Dvs, RTX kommer inte att fungera på kommande konsoler eftersom de använder AMD hårdvara. AMD kommer att skapa en egen "development platform" för sin Ray Tracing metod, vad det nu än sist och slutligen blir, denna kommer högst sannolikt ha integration till Vulkan och DX12 (via DXR) precis som RTX. AMD har redan en öppen standard som heter Radeon Rays och är baserad på OpenCL, så sannolikt nån vidareutveckling av det men det är bara mina spekulationer.

Skillnaden blir att jag inte ser varför någon spelutvecklare skulle utveckla i Nvidias RTX som bara funkar på PC med Nvidia hårdvara när AMDs motsvarighet när den väl dyker upp kommer att funka på nya Xbox, PS5 (högst sannolikt), samt PC med AMD hårdvara. AMD brukar gilla öppna lösningar så det är väl tänkbart att deras kommande "development platform" kommer funka på Nvidia hårdvara också.

Lång förklaring men det är iaf orsaken till att jag inte tror att RTX blir speciellt långlivat

Trädvy Permalänk
Medlem
Plats
Sverige
Registrerad
Jan 2005
Skrivet av hg:

Njaä inte precis. RTX är en "development platform" primärt för Ray Tracing. Den har integration till Vulkan och DX12 (via Microsofts DXR tillägg). RTX är en proprietär teknik som funkar endast på Nvidias hårdvara.

Dvs, RTX kommer inte att fungera på kommande konsoler eftersom de använder AMD hårdvara. AMD kommer att skapa en egen "development platform" för sin Ray Tracing metod, vad det nu än sist och slutligen blir, denna kommer högst sannolikt ha integration till Vulkan och DX12 (via DXR) precis som RTX. AMD har redan en öppen standard som heter Radeon Rays och är baserad på OpenCL, så sannolikt nån vidareutveckling av det men det är bara mina spekulationer.

Skillnaden blir att jag inte ser varför någon spelutvecklare skulle utveckla i Nvidias RTX som bara funkar på PC med Nvidia hårdvara när AMDs motsvarighet när den väl dyker upp kommer att funka på nya Xbox, PS5 (högst sannolikt), samt PC med AMD hårdvara. AMD brukar gilla öppna lösningar så det är väl tänkbart att deras kommande "development platform" kommer funka på Nvidia hårdvara också.

Lång förklaring men det är iaf orsaken till att jag inte tror att RTX blir speciellt långlivat

Okdå, du har säkert rätt för dig. Men oavsett vad så är DXR det viktiga, och om både Nvidia och AMD stödjer DXR så är saken biff och allting annat är ointressant för köparna.

/hulle.

A600, 2 MB Chipram, 85 MB HD, Extra diskettstation, Joysticks: Tac-2, The Bug och Wico Red Ball.
Zotamedu:"Kompressorkylning är nog det mest miljöfarliga du kan göra med en dator om du inte tänker börja elda brunkol i den."