Nvidia: "År 2023 släpps det första storspelet som kräver ray tracing-hårdvara"

Permalänk
Medlem

Om fyra år uppges samtliga spelplattformar stödja ray tracing, något som då kan krävas av storspelen.

Många som flyger under radarn här och inte läser

Visa signatur

Pc 1--> [AsRock DualSata2][AMD4600+X2][7800GT] [Intel SSD X-25 80GB G2][1TB F3][750GB IDE][4GB XMSCorsiar]Pc 2--> [Asus Crosshair] [AMD 4800+X2] [2st 8800GT i SLI] [RAID 0 2x250GB] [6GB XMSCorsair] [Corsair HX750]Pc 3-->[HP Microserver 12TB]Pc 4--> AsRock P67 Extreme 4,i7 2600K @ 4.0 GHz,830 256GB,16GB 1600MHz, R9 290X Foto [Nikon D7000][70-300/35 1,8/18-55 [Skärmar=24",24",24" Eyefinity]

Permalänk
Medlem

Hmm, då återstår frågan: Skall man köpa ett RTX4080ti eller en flygande bil?

Permalänk
Medlem
Skrivet av anon12433:

Att ett AAA-spel skulle kräva raytracing 2023 tycker jag låter lite märkligt. Visst kan Nvidia betala något företag att skapa ett spel som hindrar alla icke-raytracing kompatibla kort från att starta spelet. Men att spelet inte skulle kunna köras utan raytracing låter mer extremt.

Om vi tar pixel shaders som introducerades kring millennieskiftet och var världens grej då så dröjde det flera år till innan grafikkort som saknade pixel shaders (t.ex. GeForce MX460) inte alls kunde starta de nya spelen. Kanske fanns det något AAA-spel som ej gick att starta med det men det är åtminstone ingenting jag hört talas om.

Det de räknar med är nog att processen för spelutveckling kommer förändras, och att den titeln som då släpps som kräver ray tracing kommer kräva det eftersom man inte spenderat någon tid på att anpassa spelet för att köras utan ray tracing, som t.ex. att baka in ljus i texturer.

Skrivet av firstofmay:

Visst jag missade det fetmarkerade... Min poäng är dock fortfarande att istället för en större performance gain (2080 TI är pinsamt dålig med tanke på prisökningen om man jmfr med 1080 TI)så slösade man kretsyta på vad som i min mening är meningslösa RT cores som egentligen inte tillför något nämnvärt i dagsläget och som artikeln säger inte kommer vara aktuella på riktigt förrän 2023 när 2080 TI redan är bortglömt.

Nja, någonstans måste man börja. Hur ska spelutvecklarna kunna använda en viss teknik som inte existerar på marknaden? Först kommer hårdvaran, sedan följer mjukvaran. Jag tycker att det är helt rätt att satsa på accelererad RT. Det kommer nog komma en jäkla massa spel med stöd för RT innan 2023.

Permalänk
Medlem
Skrivet av Soir:

Det de räknar med är nog att processen för spelutveckling kommer förändras, och att den titeln som då släpps som kräver ray tracing kommer kräva det eftersom man inte spenderat någon tid på att anpassa spelet för att köras utan ray tracing, som t.ex. att baka in ljus i texturer.

Nja, någonstans måste man börja. Hur ska spelutvecklarna kunna använda en viss teknik som inte existerar på marknaden? Först kommer hårdvaran, sedan följer mjukvaran. Jag tycker att det är helt rätt att satsa på accelererad RT. Det kommer nog komma en jäkla massa spel med stöd för RT innan 2023.

Jaja, klart utvecklingen måste gå framåt. Synd bara att det blev på bekostnaden av prestanda i nuläget och hur prisvärd produkten i nVidias fall är.

Visa signatur

7800X3D//4090
MINT XFCE // W11 🤮

Permalänk
Medlem

Blodtrycksanfall när jag läser siffran 3.

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Inaktiv
Skrivet av Soir:

Det de räknar med är nog att processen för spelutveckling kommer förändras, och att den titeln som då släpps som kräver ray tracing kommer kräva det eftersom man inte spenderat någon tid på att anpassa spelet för att köras utan ray tracing, som t.ex. att baka in ljus i texturer.

Det kommer säkerligen bli så att utvecklare enbart använder raytracing för ljussättningen men det känns som om det är längre in i framtiden än 2023 på ett AAA-spel. Såvitt jag vet så fungerar ingen spelmotor på den nivån ännu vilket kommer kräva att man utvecklar en motor först för att sedan göra ett spel i den. Ett helt nytt tänk i hur de använder tekniken.

Ytterligare ett exempel. Se bara på DX12 som introducerades i grafikkort redan 2011 och ännu ej fått ett fullt genomslag. Är lite osäker men jag tror inte det finns något spel som kräver DX12 idag på PC, åtminstone inte AAA.

Permalänk
Medlem

I november släpps Doom Eternal som kommer ha stöd för RT. Vulkan är väldigt snabb och vi kanske får se 100+ fps i 1440p med RT på med snabbare kort...Hoppas de kan få spelet att se riktigt bra ut med RT på så man får extra mysig stämning. RT är framtiden men för tillfället är det ju nästan oanvändbart. Så är det alltid med ny teknologi. Det måste mogna.

Ingen aning hur AMD:s RT kommer funka i början men förväntar mig en bra prestandaökning från Nvidias RT 2.0. Lär knappast fungera med spel i 4k än men bör vara ok i 1440p i en del spel iaf. Innan 2023 bör vi ha fått RT 3.0 och då bör man kunna spela de flesta spel i minst 1440p med hög fps och förmodligen en del spel i 4k med godkänd fps. Det är vad min spåkula säger iaf

Permalänk
Medlem

Känns som om att det är viktigt med en öppen standard här. Annars riskerar tekniken sluta precics som PhysX.

Skickades från m.sweclockers.com

Visa signatur

Nybörjare på Linux? Se hit! #15665841

Permalänk
Medlem
Skrivet av _Merc_:

Jag undrar när vi får se riktig ray tracing. Det halvdana som nvidia gör just nu är bara en liten del av vad som behövs. Vi får nog vänta tills AMD släpper sin version som kommer vara betydligt bättre än nvidias. För alla funktioner hitills har amd gjort bättre förutom streaming codec.

Skickades från m.sweclockers.com

Sist jag läste något om AMDs RayTracing så skulle det vara en snikvariant som inte är lika kraftfull som Nvidias implementation. Så vart du drar dina slutsatser ifrån kan man ju alltid undra.

Skrivet av NodCommander:

Känns som om att det är viktigt med en öppen standard här. Annars riskerar tekniken sluta precics som PhysX.

Skickades från m.sweclockers.com

Som tur är ligger ju API:et i DXR och på väg till Vulkan. Inget som är låst till Nvidia.

Permalänk
Avstängd
Skrivet av wargreymon:

Sist jag läste något om AMDs RayTracing så skulle det vara en snikvariant som inte är lika kraftfull som Nvidias implementation. Så vart du drar dina slutsatser ifrån kan man ju alltid undra.

Nvidias RayTracing är redan snikvarianten. man kan inte gå lägre än vad Nvidia har gjort och kalla det för raytracing.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem
Skrivet av _Merc_:

Nvidias RayTracing är redan snikvarianten. man kan inte gå lägre än vad Nvidia har gjort och kalla det för raytracing.

Så du säger att det AMD kommer komma med inte är RT då?

Permalänk
Medlem
Skrivet av firstofmay:

Visst jag missade det fetmarkerade... Min poäng är dock fortfarande att istället för en större performance gain (2080 TI är pinsamt dålig med tanke på prisökningen om man jmfr med 1080 TI)så slösade man kretsyta på vad som i min mening är meningslösa RT cores som egentligen inte tillför något nämnvärt i dagsläget och som artikeln säger inte kommer vara aktuella på riktigt förrän 2023 när 2080 TI redan är bortglömt.

Så hur ska vi kunna utveckla tekniken då? Om ingen satsar på den så finns det ingen mening bakom det hela.

Någonstans börjar det, amd ligger väl en del bak Nvidia redan på RT.

Skickades från m.sweclockers.com

And till amd
Permalänk
Medlem
Skrivet av birdman:

nVidia: Du vet det där RTX-kortet som du spenderade extra pengar på för just RT-funktionen, nej den kommer du inte kunna utnyttja på fullt allvar förrän vid kanske 2023.

Men var inte orolig, vi kommer att lansera flera RT-kapabel kort innan det så du kan köpa och betala extra varje gång du uppgraderar så att du kan vara redo när 2023 är framme.

Gamers: Shut up and take my money!

Säger killen som sitter på det prisvärda Vega64, tillåt mig skratta.

Älskar alla bakåtsträvande ''fanboys''

Var glad att utvecklingen går framåt istället. Vad du än köper så kommer nästa version vara bättre. Det gäller all teknik.

Permalänk
Medlem

går mycket rykten om att nästa generations konsoler ska ha Ray tracing.

Visa signatur

||ASUS Z390-Formula||9900K@5.0Ghz||360(60MM)+280+120mm EKWB Custom loop (9Fans)||32GB corsair dominator 3000mhz cl15||X2 RTX 2080TI EKWB||asus hyper m.2 x16||X2 970 EVO 1TB||960 EVO 500GB||Corsair ax1600i||Corsair 500D RGB||
Monitor: ACER X27 4K 144HZ

Permalänk
Medlem
Skrivet av anon12433:

Det kommer säkerligen bli så att utvecklare enbart använder raytracing för ljussättningen men det känns som om det är längre in i framtiden än 2023 på ett AAA-spel. Såvitt jag vet så fungerar ingen spelmotor på den nivån ännu vilket kommer kräva att man utvecklar en motor först för att sedan göra ett spel i den. Ett helt nytt tänk i hur de använder tekniken.

Ytterligare ett exempel. Se bara på DX12 som introducerades i grafikkort redan 2011 och ännu ej fått ett fullt genomslag. Är lite osäker men jag tror inte det finns något spel som kräver DX12 idag på PC, åtminstone inte AAA.

Raytracing finns i moderna spel/grafikmotorer redan, tex i Unreal Engine. Det är bara en enkel switch att slå på så är det klart.

https://docs.unrealengine.com/en-US/Engine/Rendering/RayTraci...

Permalänk
Medlem
Skrivet av NodCommander:

Känns som om att det är viktigt med en öppen standard här. Annars riskerar tekniken sluta precics som PhysX.

Skickades från m.sweclockers.com

Det finns redan, kallas DXR och finns i DX12.

Permalänk
Medlem
Skrivet av _Merc_:

Nvidias RayTracing är redan snikvarianten. man kan inte gå lägre än vad Nvidia har gjort och kalla det för raytracing.

På vilket sätt är det snikvarianten? Var god utveckla.

Permalänk
Inaktiv
Skrivet av mill:

Raytracing finns i moderna spel/grafikmotorer redan, tex i Unreal Engine. Det är bara en enkel switch att slå på så är det klart.

https://docs.unrealengine.com/en-US/Engine/Rendering/RayTraci...

Nu menar jag inte stöd för raytracing utan en motor som enbart använder sig av raytracing för all ljussättning, skuggor etc. Jag kan egentligen ingenting om detta men tänker mig att innan alla bump maps, normal maps, reflective maps, diffuse maps, tessellation, vertex shaders etc. fungerar automatiskt med ray tracing så misstänker jag att det är en lång väg att gå.

Någon som vet mer om grafik och spelmotorer får gärna förklara hur det egentligen ligger till.

Permalänk
Medlem

Det skulle krävas en exceptionellt korkad exec för att ta beslutet att låsa så stor del av marknaden ute ur spelet. På sin höjd kanske ett teknikdemo släpps som kräver det.
Hur många spel idag tillåter inte mer än 4 år gammal hårdvara?
Senast något liknande släpptes var Crysis (som i grund och botten var ett techdemo för Cryengine) men då var det inte låst, bara sjukt tungdrivet

Skickades från m.sweclockers.com

Permalänk
Medlem

"I inlägget står också skrivet att samtliga spelplattformer ska ha stöd för hårdvaruaccelererad ray tracing vid det laget."
Bara Sony och Microsoft nämns... Nintendo då?

Visa signatur

Intel Pentium 2 MMX 233 @263 MHz, 192 mb, Nvidia TNT 16mb, 40gb hdd

Permalänk
Medlem

Det skall mycket till att faktiskt kräva raytracing, i princip skulle det innebära att flera element i spelet kräver detta för att nå från punkt A till punkt B, och så lär det inte vara.

Om nu någon kommer att spela detta "storspel" återstår att se, det är nog endast ett försök av nVidia att deprecatea äldre kort och därav tjäna mer kosing.

Att alla kort har acceptabel RT-prestanda 2023 är också tveksamt. Om lowend/midend users ska kunna spela detta elände så krävs mer eller mindre ett mirakel, speciellt om spelet skall se minst lika snyggt ut som idag utan RT.

Permalänk
Medlem
Skrivet av anon12433:

Ytterligare ett exempel. Se bara på DX12 som introducerades i grafikkort redan 2011 och ännu ej fått ett fullt genomslag. Är lite osäker men jag tror inte det finns något spel som kräver DX12 idag på PC, åtminstone inte AAA.

Precis vad jag tänkte ta upp som exempel
Jag håller fullständigt med: att ett AAA spel skulle kräva raytracing redan 2023 låter osannolikt.

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk
Medlem
Skrivet av anon12433:

Att ett AAA-spel skulle kräva raytracing 2023 tycker jag låter lite märkligt. Visst kan Nvidia betala något företag att skapa ett spel som hindrar alla icke-raytracing kompatibla kort från att starta spelet. Men att spelet tekniskt sett inte skulle kunna köras utan raytracing låter mer extremt.

Om vi tar pixel shaders som introducerades kring millennieskiftet och var världens grej då så dröjde det flera år till innan grafikkort som saknade pixel shaders (t.ex. GeForce MX460) inte alls kunde starta de nya spelen. Kanske fanns det något samtida AAA-spel som ej gick att starta med det men det är åtminstone ingenting jag hört talas om.

Alla vet ju att minimum requirements bara existerar pga att Nvidia/AMD har betalat utvecklarna. Jag gillar din tankebana.

Permalänk
Medlem

@Ryzer:
Min nuvarande Vega 64 är egentligen min andra Vega 64, då jag råkade paja min gamla
Den nuvarande är köpt begagnad.

Min gamla Vega 64, precis som min nuvarande, är egentligen en flashad Vega 56, som köptes vid release för under 4000 kr.
Alltså prestandan av ett GTX 1080, för under 4000 kr.
Samma GTX1080 som kostade 7000+ kr i butik.
Så att eh... Ja, den var prisvärd, till skillnad från samtliga nVidia kort... någonsin.

Erkänner dock att jag har mycket kärlek för AMD men det har alltid varit prestanda/krona som avgör köpet.
Ryzen 3000 är min första AMD build, då min första build var precis vid lansering av Conroe så har det varit Intel hela tiden.

Utvecklingen måste framåt, vill dock alltid ha ett val, vilket nVidia inte är särskilt kända för.

nVidia: Our way or the high way.

Visa signatur

3900X | Asus C8H | Trident Z 3800 | 6800 XT | MP600 | HX1000i | Core P5 | EK-WB

Permalänk
Medlem
Skrivet av birdman:

@Ryzer:
Min nuvarande Vega 64 är egentligen min andra Vega 64, då jag råkade paja min gamla
Den nuvarande är köpt begagnad.

Min gamla Vega 64, precis som min nuvarande, är egentligen en flashad Vega 56, som köptes vid release för under 4000 kr.
Alltså prestandan av ett GTX 1080, för under 4000 kr.
Samma GTX1080 som kostade 7000+ kr i butik.
Så att eh... Ja, den var prisvärd, till skillnad från samtliga nVidia kort... någonsin.

Erkänner dock att jag har mycket kärlek för AMD men det har alltid varit prestanda/krona som avgör köpet.
Ryzen 3000 är min första AMD build, då min första build var precis vid lansering av Conroe så har det varit Intel hela tiden.

Utvecklingen måste framåt, vill dock alltid ha ett val, vilket nVidia inte är särskilt kända för.

nVidia: Our way or the high way.

Så du tycker inte 1080ti för 7500kr ses som ett kap nu med dagens priser? Nu två år senare så har inte AMD släppt något som har motsvarande prestanda för bättre pris. Radeon 7 är väl närmast men dyrare och sämre till spel.

1080ti är troligtvis det bästa grafikköpet du kunnat göra i modern tid.

Permalänk

När vi kommer dit är tekniken redan gammal och en ersättare står på tur. Tror inte dagens teknik kommer vara så up to date om 5 år.

Skickades från m.sweclockers.com

Visa signatur

Intel Core i9-12900KF 5.2GHz+ HT Custom loop
MSI RTX 4080 Gaming X Trio 3030MHz
Asus ROG Maximus Apex Z690 (WI-FI)
Corsair Dominator Platinum 6200mhz 32GB CL36
Asus 34" TUF VG34VQL1B, NZXT H9 Flow, Corsair HX1200i, 970 Evo Plus, Asus ROG Strix Flare MX, Logitech G502 PS

Permalänk
Medlem
Skrivet av anon12433:

Nu menar jag inte stöd för raytracing utan en motor som enbart använder sig av raytracing för all ljussättning, skuggor etc. Jag kan egentligen ingenting om detta men tänker mig att innan alla bump maps, normal maps, reflective maps, diffuse maps, tessellation, vertex shaders etc. fungerar automatiskt med ray tracing så misstänker jag att det är en lång väg att gå.

Någon som vet mer om grafik och spelmotorer får gärna förklara hur det egentligen ligger till.

Just all ljussättning, skuggor och reflektioner är det som du får. Det är faktiskt generellt mycket enklare att implementera (men oerhört mycket långsammare i nuläget) att köra raytracing i realtid än att förberäkna och att baka in skuggor etc i texturer och andra förenklingar man gör för att förbättra prestanda. Klyscha, men it just works liksom, dock är grafikkorten för långsamma just nu för realtidsraytracing IMHO.

Permalänk
Medlem
Skrivet av Ryzer:

Så du tycker inte 1080ti för 7500kr ses som ett kap nu med dagens priser? Nu två år senare så har inte AMD släppt något som har motsvarande prestanda för bättre pris. Radeon 7 är väl närmast men dyrare och sämre till spel.

1080ti är troligtvis det bästa grafikköpet du kunnat göra i modern tid.

Diminishing returns.
Jag vill ha så mycket prestanda som möjligt utan att det ska kosta skjortan.

Jag skulle aldrig kunna tänka mig betala 7500 kr för en gammal GPU som inte ens är det absolut bästa pengar kan köpa.
Tänk själv hur mycket 7500 kr låter. Vi lever i en tid där 7500 kr för en gammal GPU ska vara "bästa grafikköpet du kunnat göra i modern tid".
Det är en gammal produkt som nVidia, tack vara brist på konkurrens från AMD, kan få folk som dig att tro detta är "bästa grafikköpet i modern tid".

Det är sjukt att ens säga det är OK att spendera 7500 kr det på en gammal GPU som tillverkaren mycket gärna skulle kunna sälja för 4500 kr med helt OK marginaler.

Jag skulle inte att köpa GPU X från AMD även om den skulle kunna slå RTX 2080Ti för samma peng.
Diminishing returns.
Precis samma anledning till varför jag valde köpa 3900X istället för 3950X.
12 kärnor är tillräckligt och räcker väldigt långt, precis som en RTX 2080 är mer än tillräckligt för de flesta men aldrig till det priset.

2080 är en mellanklass GPU till priset av en toppklass GPU.

R VII är/var en idiotisk produkt som bevisligen var en nödlösning från AMD för att kunna känna sig någorlunda relevanta i toppklassen.
Just därför valde jag att skippa den.

Inväntar "5800/5900XT" som förhoppningsvis kan erbjuda RTX 2080 Super nivå till en mindre peng.

Visa signatur

3900X | Asus C8H | Trident Z 3800 | 6800 XT | MP600 | HX1000i | Core P5 | EK-WB

Permalänk
Medlem
Skrivet av ExcZist:

Vilket spel kan detta vara nu då?

Star Citizen ?

Visa signatur

Riggen:ASRock X570M Pro4 - AMD Ryzen 7 3700X - Corsair 32GB DDR4 3200MHz - Corsair MP510 960Gb NVME - EVGA 1080ti SC2 - 3x Samsung 840 500GB - EVGA SuperNOVA G1+ 650W - Fractal Design Meshify C Mini Dark TG
NAS: FreeNAS @ HP Proliant MicroServer Gen 8 - Xeon E3-1230 V2 - 16Gb Kingston ECC RAM - Intel 530 120Gb - IBM m1015/LSI 9220-8i - 4x WD Red 3Tb

Permalänk
Medlem

Tolkar jag alltså som gången någon utvecklar ett spel och inte pallar göra reflection- eller shadowmaps och kommer förlita sig på ljusfysiken i hårdvaran. Tänker rätt?

Visa signatur

i7-2700K 5GHz | 32GB DDR3-1600 | ASUS Maximus V Gene | GTX 980