Nvidia ger Geforce GTX-grafikkort stöd för DirectX Raytracing

Permalänk
Medlem
Skrivet av Wolfgrin:

Tror nog mitt gamla 980 Ti skulle klarat det bättre än många kort i 1000-serien.

Det är väl bara 1060 6gb som är sämre än 980 ti och samtidigt får detta stöd. Så många skulle jag inte kalla det.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Dinoman:

Fast 2080 Ti är ett riktigt monster till kort, du behöver ju inte direkt vara missnöjd ur den synvinkeln.

Dessutom kommer ju RTX vara slött som busen på allting som inte är 20-serien.

Det återstår väl att se vad prestandapåverkan är på äldre kort. Det enda spel jag kör med RTX tillgängligt är BFV på 1440 Ultra, och där ligger jag nog 100-120fps stabilt.

Visa signatur

Endeavour OS(arch) - Cassini Nova

Permalänk
Medlem
Skrivet av JMV1971:

Bravo Nvidia, nu kan jag med GTX1080 köra Raytracing i realtid.
Första PC'n var en AMD 386 på 40MHz, den tog en hel dag att rita en bild med 1024x768Px i PovRay renderaren.

Inte en chans att den kör RT i realtid utan att begränsa kvaliteten betydligt.

Permalänk
Medlem
Skrivet av dlq84:

Inte en chans att den kör RT i realtid utan att begränsa kvaliteten betydligt.

Vilken av datorerna tänker du på, den sistnämnda kör nog ej RT i realtid oavsett kvalitet. I övrigt står det ju i nyheten att kort ur 1000-serien kommer att kunna använda det med färre strålar, så det är ett faktum att det kommer vara sämre kvalitet på RT för 10xx-korten.
Det enda som kvarstår är att bestämma hur stort tappet blir.

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem

Smart drag av dom, bra för spelmarknaden i stort ifall det skyndar på utvecklinge/implementeringen av tekniken och förhoppningsvis även optimerar den.

Undrar hur det kommer funka på min 1060, brukar normalt köra i 1080p med High (aldrig very high).

Visa signatur

AMD Ryzen 5 1600 3.2 GHz - MSI GeForce GTX 1060 Gaming X 6GB - Corsair 2x8GB 3000MHz

YOMAHA, YOMASO!

Permalänk
Moderator
Testpilot
Skrivet av HoboCop:

Det återstår väl att se vad prestandapåverkan är på äldre kort. Det enda spel jag kör med RTX tillgängligt är BFV på 1440 Ultra, och där ligger jag nog 100-120fps stabilt.

Jag tror vi får räkna med en ganska ordentlig prestandapåverkan på äldre kort som inte har dedikerad kärnor för jobbet.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av Dinoman:

Fast 2080 Ti är ett riktigt monster till kort, du behöver ju inte direkt vara missnöjd ur den synvinkeln.

Dessutom kommer ju RTX vara slött som busen på allting som inte är 20-serien.

Det är slött som bussen på 20-serien också.

(Så det var inte därför jag köpte ett 2080 Ti, utan för 4K @ 60 med allt på max.)

Visa signatur

5950X, 3090

Permalänk
Medlem
Skrivet av Nikodemous:

Fast det handlar väl mer om att Nvidia inte längre har monopol på strålspårningstekniken utan att du även kan använda dej av AMD:s kort. När dessutom microsoft gjorde det möjligt att använda dej av 2 valfria grafikkort i någon form av sli/crossfire i DX 12 gör detta det potensiellt möjligt att som konsument kunna få upp en hygglig prestanda utan att köpa Nvidias monsterkort för +12000 spänn.

Detta är faktiskt något som jag många gånger har saknat i tester av grafikkort sedan "Ashes of the singularity" släpptes med DX12 Multi-GPU (istället för SLI eller Xfire), och när multi-GPU testades och man testade med både AMD och Nvidia, men bäst resultat inte uppnåddes med två av de "starkaste korten".
Se Swclockers test; trots att Titan X presterar sämre än R9 Fury så blir prestandan av Fury X + Titan X bättre än Fury X + Fury.
Just detta gör att jag gärna hade sett fler tester med t.ex Radeon VII Xfire vs 2080 SLI vs Radeon VII + 2080 just för att se hur prestandan blir när multi-gpu görs på RÄTT sätt.

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem

En fråga till er som kan detta med utveckling av spel. Är det enklare för utvecklare att endast använda ray tracing för ljussättning jämfört med att använda de gamla metoderna med "fakeade" ljuskällor för att få skuggningar korrekt osv? Alltså, är det så enkelt att med ray tracing är det bara att kasta in en ljuskälla och så blir all skuggning snygg av sig själv?

Problemet nu blir väll att man måste göra stöd för både ray tracing samt det traditioniella sättet.

Visa signatur

Asus Strix Rog B550-F gaming | AMD Ryzen 7 5800x | 2x16GB Ballistix 3600MHz CL16 | ASUS TUF RTX 3080 |Gigabyte AORUS FI27Q-X 27" 1440p 240hz IPS + AOC 27" 1440p 144hz

Permalänk
Medlem

TACK SÅ MYCKET, CRYTEK!

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem

Kan någon förklara vad som är skillnaden mellan DXR och Nvidia Raytracing?

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Medlem
Skrivet av daniz:

En fråga till er som kan detta med utveckling av spel. Är det enklare för utvecklare att endast använda ray tracing för ljussättning jämfört med att använda de gamla metoderna med "fakeade" ljuskällor för att få skuggningar korrekt osv? Alltså, är det så enkelt att med ray tracing är det bara att kasta in en ljuskälla och så blir all skuggning snygg av sig själv?

Problemet nu blir väll att man måste göra stöd för både ray tracing samt det traditioniella sättet.

Man slipper ju förbaka texturer, lightmaps, shadowmaps och liknande. Men det är jävligt dyrt beräkningsmässigt att göra det med raytracing. Om kraften hade funnits hade man bara kunnat definera alla ljuskällor och så hade resten skött sig själv. Nu finns det ju unity och unreal som kan göra förbakningen åt en och hantera dynamiska ljus, men det blir inte lika exakt och verklighetstroget som raytracing.

Skrivet av BrottOchStraff:

Kan någon förklara vad som är skillnaden mellan DXR och Nvidia Rey Tracing?

Kortfattat. DXR är inbyggt i Direct X, Nvidias är ett eget API. Om man använder Direct X så kan man använda det på alla kort som stödjer det och behöver inte skriva tillverkarspecifik kod.

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem
Skrivet av kelthar:

TACK SÅ MYCKET, CRYTEK!

Har nog inte så mycket med Crytek att göra.

RTX korten har sålt sämre än väntat.
Så Nvidia möjliggör för folk att se vilken enorm betydelse ray tracing har för den visuella upplevelsen.
Det är mer som ett demo för att marknadsföra RTX och motivera utvecklare att lägga till ray tracing i spel.

Permalänk
Medlem
Skrivet av nubbe:

Har nog inte så mycket med Crytek att göra.

RTX korten har sålt sämre än väntat.
Så Nvidia möjliggör för folk att se vilken enorm betydelse ray tracing har för den visuella upplevelsen.
Det är mer som ett demo för att marknadsföra RTX och motivera utvecklare att lägga till ray tracing i spel.

Jag tror absolut att det har med CryTek att göra, då nVIDIA har fått konkurrans där billigare kort kan nyttja samma teknik till lägre pris (Och lägre prestanda). Dom måste bemöta detta på något sätt, och samtidigt som du säger så har RTX korten sålt sämre än väntat.

Visa signatur

Endeavour OS(arch) - Cassini Nova

Permalänk
Medlem

Jag tror felet är att man säger att korten fixar raytracing i realtid.

Definierar man raytracing som en scen i blender, så är det ren och skär lögn.
Annars skulle nog Pixar etc redan ha tagit fram liknande metoder för realtidsraytracing,
istället som nu spendera veckor för att rendera filmer, när de med DXR / Crytek / RTX skulle kunna få filmen klar på någon timma....

Men definerar man raytracing som ljussättning eller någon reflektion så går jag med på det,
men med få strålar som ger en väldigt brusig bild..

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem
Skrivet av HoboCop:

Jag tror absolut att det har med CryTek att göra, då nVIDIA har fått konkurrans där billigare kort kan nyttja samma teknik till lägre pris (Och lägre prestanda). Dom måste bemöta detta på något sätt, och samtidigt som du säger så har RTX korten sålt sämre än väntat.

Man har redan kunnat använda tekningen på serverfarmar för att rendera filmer med pascal.

Tekniken är inte speciellt intressant för spel om man måste gå ner till 720p för att få 30+ fps
Crytek demot gör ingenting som AMD och Nvidia har kunnat göra tidigare

Permalänk
Medlem

Smart drag av Nvidia. Även om det förstås kan ifrågasättas hurdan upplevelsen blir på gamla kort, så måste man nog ändå ut på bred front med nya tekniker för att de ska få fäste.

Jfr. med alla konsoltillbehör, typ ljuspistoler, Kinect, PS Move, osv. De hamnar alltid i någon slags limbo bestående av att ingen köper dem för att det inte finns spel, och inga utvecklare är intresserade av att göra spel till dem, då användarbasen är för liten.

Visa signatur

Nu lurade jag dig att slösa bort ett par värdefulla sekunder av ditt liv på att läsa denna fullständigt poänglösa signatur!

Permalänk
Medlem

Ahh, det här påminner mig om PhysX - gått från att vara det häftigaste sedan skivat bröd när det släpptes, med krav på dedikerad hårdvara (i form av egna PCI-kort, kul bit historia för de som sitter på ett sådant fortfarande - de börjar bli ovanliga) till att bli en mer integrerad, men också mer bortglömd (när fullgoda alternativ började komma, om inte annat), feature som kan köras på allt, om än lite bättre på nVidia-hårdvara.

Visa signatur
Permalänk
Medlem

Ser framemot alla indiespel som kan använda DXR med inte så avancerad grafik så det blir spelbart med alla kort och vackert som tusan.

Visa signatur

CachyOs. MSI MPG Z490 GAMING PLUS// Intel Core i5-10600K@4800Mhz// Radeon rx 6800 16gb // Corsair VENGEANCE LPX 32GB.

Permalänk
Redaktion
Praktikant ✨

Något som är lustigt är att Nvidia hade stöd för DirectX Raytracing för GTX 1000-serien vid lanseringen av Turing. Men antar att de stängde av detta ihop med de skarpa drivrutinerna senare.

Det är viktigt att belysa att DLSS är forcerat hos RTX-kortet ovan, vilket ger dem ytterligare en prestandaskjuts, men som synes är det rätt kämpigt för GTX 1080 Ti att dra runt ray tracing utan de dedikerade RT-kärnorna – åtminstone med teknikens implementation i Reflections-demot.

Permalänk
Medlem
Skrivet av inquam:

Jag såg en video som talade om Ray Tracing som något Nvidia försökte sig på för att fortsätta vara relevanta. Vi är i en sitts där APU:er förmodligen inom ett par år är fullgoda alternativ för att kunna spela spel och att folk inte behöver köpa dedikerade grafikkort i samma skala. Hur ändrar man det? Precis som man fick HW T&L att bli en grej, sedan Vertex och Pixel shaders så försöker man få Ray Tracing att bli en grej. Lyckas man har man förmodligen säkrat sitt existensberättigande i ytterliggare tio år.

Men, detta visar också (igen), att Nvidia inte gjorde detta på rätt sätt. Att introducera denna teknologi genom ett galet dyrt kort som på inget sätt gjorde RayTracing till en del av "vanliga" konsumenters vokabulär och sammtidigt prestera marginellt bättre (eller till och med sämre) per krona i de spel folk spelar idag var fel strategi. Man försökte få konsumenter att tro att dedikerad hårdvara var "nödvändigt" för att rättfärdiga nya dyra kort och varför folk skulle överge sina kraftfull akort de redan satt på, när de utan problem hade kunnat ha stöd (om än långsammare och mer begränsat) även där. Men Nvidia är "bra" på att "låsa" funktioner till nya kort som egentligen skulle fungera utmärkt på äldre kort så det är inte så att man vart jätteförvånad.

Ray Tracing och Path Tracing har funnits länge och hade kunnat introduceras likt det man nu gör istället. Begränsade effekter på existerande kort som fick upp folks intresse. Sedan släpps kort med dedikerat stöd för att accelerera det hela (likt 3D -> HW 3D en gång i tiden) och man hade kunnat bygga därifrån.

Nvidia, även om de inte uttryckligen har sagt det, har med tydlighet visat att de internt också ser att 20-serien var en produkt de tryckte ut till en marknad som inte alls var intresserad av den.
Kanske kan vi få till en reset och se en metodisk introduktion av Ray Tracing nu när både Nvidia och AMD visar Ray Tracing på kort utan dedikerad hårdvara för det.

Det finns väl inga konsumentAPU:er idag som är kraftfullare än Tegra/Ryzen 2400G?
Har svårt att se att APU:er skulle ta över jobbet istället för dedikerade grafikkort inom kort.
Varför? Jo, för att det kommer bli en nedgradering tills en APU kan ge samma prestanda som ett mellanklasskort. Det är först då APU:er kan ersätta mellanklasskorten.
Jag kanske sovit under en sten men Intel har väl inte nämnt APUer i sin satsning på grafikmarknaden? AMD:s bästa idag vad jag vet är som sagt 2400G. Nvidia har inte nämnt Tegra på länge? Så vilka tar fram tekniken idag?
Jag tror en rimligare utveckling är att stora datorhallar maxade med Titan-klasskort kommer strömma ut spelandet när latenser och sådan kunnat minimeras. Tror dock detta är mer aktuellt om 10 år.

Visa signatur

Dator: Lian Li O11 Dynamic, R9 5900X, MSI X570 ACE, Corsair H150i Pro, G.Skill TridentZ@3733MhzCL16, ASUS RTX 3090 TUF OC, Firecuda 530 2TB, 990 Pro 2TB, Corsair RM850x.
Skärm: LG OLED 42C2

Permalänk
Medlem
Skrivet av Pettson88:

Ahh, det här påminner mig om PhysX - gått från att vara det häftigaste sedan skivat bröd när det släpptes, med krav på dedikerad hårdvara (i form av egna PCI-kort, kul bit historia för de som sitter på ett sådant fortfarande - de börjar bli ovanliga) till att bli en mer integrerad, men också mer bortglömd (när fullgoda alternativ började komma, om inte annat), feature som kan köras på allt, om än lite bättre på nVidia-hårdvara.

PhysX är en integrerad del av Unity, Unreal Engine , etc
Används i nästan alla ny spel i och med att det är open source

Du tar det bara för givet att fysik ska finnas i spel, lika så kommer det att vara med ray tracing om 10 år. Det kommer att vara en självklar teknik i alla spel.

Permalänk
Datavetare
Skrivet av BrottOchStraff:

Kan någon förklara vad som är skillnaden mellan DXR och Nvidia Raytracing?

Lite längre förklaring hittar du här.

TL;DR är att "RTX" är Nvidias programstack+HW-stöd för att implementera DXR.

Finns egentligen ingen "Nvidia specifik" API för detta, API är DXR som är en del av DirectX.
Men Nvidia måste ju självklart skriva proprietär kod för att på effektivast möjliga sätt köra DXR på deras GPUer, det är "Nvidia Raytracing".

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hjälpsam
Skrivet av BrottOchStraff:

Kan någon förklara vad som är skillnaden mellan DXR och Nvidia Raytracing?

DXR är en del av DirectX 12, som används för att köra Raytracing på DX12.

Nvidia Raytracing, är nog det som brukar kallas RT och som bara finns på RT korten, det är en speciell hårdvara som snabbar upp DXR anropen.

Man kan också köra DXR utan speciell hårdvara, men då går det långsammare, det är detta som Nvidia nu säger sig göra möjligt, från GTX1060 och uppåt.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av nubbe:

Det är lite sorgligt att folk inte riktigt förstår att man alltid har kunna köra Ray tracing på GPU och CPU sedan tekniken utvecklades för några decennier sedan.

RTX har algoritmer som är speciellt utvecklade för att rendera Ray tracing med 60+ bilder per sekund istället för bilder per minut, timme eller dagar.

Hur förklarar man att Vega 56 klarar att rendera det då?
Ärligt nyfiken, har inte satt mig in alls mycket i RT, då det inte varit aktuellt för mig för tillfället.

Visa signatur

*Citera för svar*
Work smart, not hard.

Permalänk
Medlem
Skrivet av Viochee:

Stod i artikeln

Fast det var väl inte nåt svar på vad poängen var? Står ju som jag påpekade att det är menlöst att ha det för dessa kort eftersom de inte mäktar med det.

Skickades från m.sweclockers.com

Visa signatur

Processor: Motorola 68000 | Klockfrekvens: 7,09 Mhz (PAL) | Minne: 256 kB ROM / 512 kB RAM | Bussbredd: 24 bit | Joystick: Tac2 | Operativsystem: Amiga OS 1.3

Permalänk
Medlem
Skrivet av Purrfected:

Hur förklarar man att Vega 56 klarar att rendera det då?
Ärligt nyfiken, har inte satt mig in alls mycket i RT, då det inte varit aktuellt för mig för tillfället.

Alla GPUer och CPUer kan göra Ray tracing
DXR är en del a DX12

Alla grafikkort som stödjer DX12 kan köra Direct X Ray tracing om det stöds i drivrutinen

Permalänk
Medlem
Skrivet av nubbe:

PhysX är en integrerad del av Unity, Unreal Engine , etc
Används i nästan alla ny spel i och med att det är open source

Du tar det bara för givet att fysik ska finnas i spel, lika så kommer det att vara med ray tracing om 10 år. Det kommer att vara en självklar teknik i alla spel.

Däri ligger likheten - banbrytande teknologi (oavsett om det är nya instruktioner i APIer eller ett helt nytt API) är inte alltid bra implementerad från start, medan det ett decennium senare kan vara standard. (Tolka absolut inte mitt inlägg som att jag kritiserar konceptet att introducera realtids raytracing, det var verkligen inte det jag menade.) Men först i och med att implementeringen blev open source och körbar på annat än AGEIAs PPUer och senare nVidias GPUer, och kunde integreras i spelmotorer bra mycket lättare, blev det smärtfriare (både vad gäller arbete och kostnad) för hårdvaru- och mjukvaruleverantörer att få in teknologin. PhysX som är integrerat i spelmotorer är tillräckligt teknikagnostiskt i dag, och tillräckligt lättdrivet, för att inte behöva dedikerad hårdvara som *bara* gör PhysX-beräkningar.

Dock är inte PhysX den enda lösningen för att hantera fysikberäkningar och -rendering - finns alternativ som ex. Bullet eller Havok. Precis som nVidias RTX förhoppningsvis inte kommer vara den enda APIn för att hantera raytracing i framtiden. (Och/eller med förhoppning att den omarbetas och förädlas till att bli någon form av open-source, och körbar lite mer effektivt på annat än oproportionerligt dyr proprietär ensyfteshårdvara från samma bolag.)

Visa signatur
Permalänk
Medlem
Skrivet av Markusas:

Det finns väl inga konsumentAPU:er idag som är kraftfullare än Tegra/Ryzen 2400G?
Har svårt att se att APU:er skulle ta över jobbet istället för dedikerade grafikkort inom kort.
Varför? Jo, för att det kommer bli en nedgradering tills en APU kan ge samma prestanda som ett mellanklasskort. Det är först då APU:er kan ersätta mellanklasskorten.
Jag kanske sovit under en sten men Intel har väl inte nämnt APUer i sin satsning på grafikmarknaden? AMD:s bästa idag vad jag vet är som sagt 2400G. Nvidia har inte nämnt Tegra på länge? Så vilka tar fram tekniken idag?
Jag tror en rimligare utveckling är att stora datorhallar maxade med Titan-klasskort kommer strömma ut spelandet när latenser och sådan kunnat minimeras. Tror dock detta är mer aktuellt om 10 år.

Intel säger inte ”APU” alls, men de har visat nästa steg i sin integrerade grafik som åtminstone är ett steg framåt om man räknar i antal EU (64 i GT2). Hur bra det blir återstår att se när de eventuellt släpper en processor med detta i.

Nej, den som är intressant när det gäller APUer framöver är AMD, med tanke på vad de visat med sina chiplets på Zen 2. De skulle exempelvis kunna göra en APU som är en Zen 2-chiplet, en chiplet för I/O, och en hyfsad GPU. Det som då fattas är minnesbandbredden att få allt detta att gå ihop, men om det sitter en hyfsad cache någonstans i paketet, lite som Intels Crystalwell men bara stor nog för framebuffern, så kan nog detta flyga bra nog för att klara 1080p. Vill man ha mer prestanda så finns ju HBM.

Skickades från m.sweclockers.com

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av BostonGurkan:

Nu kanske man måste uppleva det med en stark rigg framför sig och inte på komprimerade videos på nätet, men jag är inte särskilt imponerad av vad RT tillför till det visuella. Sett till hur mycket prestanda det suger så tar jag hellre bättre flyt, partikeleffekter och annat lull lull.

Exakt, och tar man det sedan ett steg längre och utvärderar "upplevelse per krona" blir RT definitivt ingen hit.

Skrivet av kelthar:

Man slipper ju förbaka texturer, lightmaps, shadowmaps och liknande. Men det är jävligt dyrt beräkningsmässigt att göra det med raytracing.

Precis. Om man nöjer sig med att programmera för RT blir programmeringen mycket enklare och smidigare, och den som kör programmet får se ett väldigt vackert bildspel!