Nvidia ger Geforce GTX-grafikkort stöd för DirectX Raytracing

Trädvy Permalänk
Medlem
Registrerad
Sep 2005
Skrivet av Wolfgrin:

Tror nog mitt gamla 980 Ti skulle klarat det bättre än många kort i 1000-serien.

Det är väl bara 1060 6gb som är sämre än 980 ti och samtidigt får detta stöd. Så många skulle jag inte kalla det.

Skickades från m.sweclockers.com

Trädvy Permalänk
Medlem
Plats
Linköping
Registrerad
Jun 2018
Skrivet av Dinoman:

Fast 2080 Ti är ett riktigt monster till kort, du behöver ju inte direkt vara missnöjd ur den synvinkeln.

Dessutom kommer ju RTX vara slött som busen på allting som inte är 20-serien.

Det återstår väl att se vad prestandapåverkan är på äldre kort. Det enda spel jag kör med RTX tillgängligt är BFV på 1440 Ultra, och där ligger jag nog 100-120fps stabilt.

Enthoo Evolv ATX | Asus ROG Strix Z370-H Gaming | Delid 8700K UV 1.100v | NH-D15 | 32GB DDR4 | NVME M2 960 500GB | AG271QG | Gigabyte 1080Ti | R1600T3 Edifier | Sony MDR-1A | Cerberus MK II | Logitech G403 | SteelSeries QcK - XXL Musmatta | Mitt skrivbord Windows 2019 x64 Enterprise LTSC | ASUS MG279Q | Behöver du hjälp? Egna skriverier

Trädvy Permalänk
Medlem
Plats
Norrköping
Registrerad
Jan 2011
Skrivet av JMV1971:

Bravo Nvidia, nu kan jag med GTX1080 köra Raytracing i realtid.
Första PC'n var en AMD 386 på 40MHz, den tog en hel dag att rita en bild med 1024x768Px i PovRay renderaren.

Inte en chans att den kör RT i realtid utan att begränsa kvaliteten betydligt.

Trädvy Permalänk
Medlem
Plats
Lund
Registrerad
Mar 2017
Skrivet av dlq84:

Inte en chans att den kör RT i realtid utan att begränsa kvaliteten betydligt.

Vilken av datorerna tänker du på, den sistnämnda kör nog ej RT i realtid oavsett kvalitet. I övrigt står det ju i nyheten att kort ur 1000-serien kommer att kunna använda det med färre strålar, så det är ett faktum att det kommer vara sämre kvalitet på RT för 10xx-korten.
Det enda som kvarstår är att bestämma hur stort tappet blir.

CPU: R7 1700 @3.8GHz | GPU: EVGA 1080 Ti SC Black Hybrid(2x SilentWings 3 Highspeed)(core: 1627 MHz, Mem: 11208 MHz) | MB: MSI X370 Gaming Pro Carbon| RAM: 2x8 GB G.Skill Ripjaws V @3200MHz CL14|Cooling: Fractal Design Celsius S24 (Corsair ML120)|PSU: EVGA Supernova G3 750W|SSD: Samsung 960 EVO 500GB + Samsung 950 pro 512GB + Samsung 850 EVO 500GB + Intel DC S3510 480 GB + 850 EVO 2TB|HDD: WD Black 1TB|FANS: Corsair ML140 x2|CASE: Fractal Design Meshify C|RGB: 4x Phanteks Halo + LED-slinga + GPU-holder

Trädvy Permalänk
Medlem
Plats
Månen
Registrerad
Jun 2005

Smart drag av dom, bra för spelmarknaden i stort ifall det skyndar på utvecklinge/implementeringen av tekniken och förhoppningsvis även optimerar den.

Undrar hur det kommer funka på min 1060, brukar normalt köra i 1080p med High (aldrig very high).

AMD Ryzen 5 1600 3.2 GHz - MSI GeForce GTX 1060 Gaming X 6GB - Corsair 2x8GB 3000MHz

YOMAHA, YOMASO!

Trädvy Permalänk
Moderator, Testpilot
f.d. Dinoman 🦖
Plats
Älmhult
Registrerad
Jan 2002
Skrivet av iBurningMan:

Det återstår väl att se vad prestandapåverkan är på äldre kort. Det enda spel jag kör med RTX tillgängligt är BFV på 1440 Ultra, och där ligger jag nog 100-120fps stabilt.

Jag tror vi får räkna med en ganska ordentlig prestandapåverkan på äldre kort som inte har dedikerad kärnor för jobbet.

Asus Maximus VII Hero - Intel Core i7 4770K @ 4,6Ghz - Corsair H110i - 16GB RAM - ASUS ROG STRIX 1080 Ti @ 2000/12 000MHz - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz

Trädvy Permalänk
Medlem
Plats
Westrobothnia
Registrerad
Okt 2008
Skrivet av Dinoman:

Fast 2080 Ti är ett riktigt monster till kort, du behöver ju inte direkt vara missnöjd ur den synvinkeln.

Dessutom kommer ju RTX vara slött som busen på allting som inte är 20-serien.

Det är slött som bussen på 20-serien också.

(Så det var inte därför jag köpte ett 2080 Ti, utan för 4K @ 60 med allt på max.)

1800X, 2080 Ti, 4K

Trädvy Permalänk
Medlem
Plats
Lund
Registrerad
Mar 2017
Skrivet av Nikodemous:

Fast det handlar väl mer om att Nvidia inte längre har monopol på strålspårningstekniken utan att du även kan använda dej av AMD:s kort. När dessutom microsoft gjorde det möjligt att använda dej av 2 valfria grafikkort i någon form av sli/crossfire i DX 12 gör detta det potensiellt möjligt att som konsument kunna få upp en hygglig prestanda utan att köpa Nvidias monsterkort för +12000 spänn.

Detta är faktiskt något som jag många gånger har saknat i tester av grafikkort sedan "Ashes of the singularity" släpptes med DX12 Multi-GPU (istället för SLI eller Xfire), och när multi-GPU testades och man testade med både AMD och Nvidia, men bäst resultat inte uppnåddes med två av de "starkaste korten".
Se Swclockers test; trots att Titan X presterar sämre än R9 Fury så blir prestandan av Fury X + Titan X bättre än Fury X + Fury.
Just detta gör att jag gärna hade sett fler tester med t.ex Radeon VII Xfire vs 2080 SLI vs Radeon VII + 2080 just för att se hur prestandan blir när multi-gpu görs på RÄTT sätt.

CPU: R7 1700 @3.8GHz | GPU: EVGA 1080 Ti SC Black Hybrid(2x SilentWings 3 Highspeed)(core: 1627 MHz, Mem: 11208 MHz) | MB: MSI X370 Gaming Pro Carbon| RAM: 2x8 GB G.Skill Ripjaws V @3200MHz CL14|Cooling: Fractal Design Celsius S24 (Corsair ML120)|PSU: EVGA Supernova G3 750W|SSD: Samsung 960 EVO 500GB + Samsung 950 pro 512GB + Samsung 850 EVO 500GB + Intel DC S3510 480 GB + 850 EVO 2TB|HDD: WD Black 1TB|FANS: Corsair ML140 x2|CASE: Fractal Design Meshify C|RGB: 4x Phanteks Halo + LED-slinga + GPU-holder

Trädvy Permalänk
Medlem
Plats
Bromma
Registrerad
Sep 2003

En fråga till er som kan detta med utveckling av spel. Är det enklare för utvecklare att endast använda ray tracing för ljussättning jämfört med att använda de gamla metoderna med "fakeade" ljuskällor för att få skuggningar korrekt osv? Alltså, är det så enkelt att med ray tracing är det bara att kasta in en ljuskälla och så blir all skuggning snygg av sig själv?

Problemet nu blir väll att man måste göra stöd för både ray tracing samt det traditioniella sättet.

Asus Z170-A | Intel i7 7700K @ 4.8ghz | 16GB RAM | Gigabyte Nvidia GTX 1080 OC | AOC 27" 1440p 144hz

Trädvy Permalänk
Medlem
Plats
Digital medborgare
Registrerad
Aug 2004

TACK SÅ MYCKET, CRYTEK!

gfårs 2080. 2700X guld. 32 Gigabong RAM. Server, NAS, pi, steamlink, casts, nätverkssladdar, sega master system, massor av faptops, mus med 17 knappar, öronproppar, strumpor av ren bomull med elastiskt band för att hålla dem uppe. 2 barn, 1 fru, 99 problem.

10nm == 7nm && 10nm != 7nm

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Dec 2001

Kan någon förklara vad som är skillnaden mellan DXR och Nvidia Raytracing?

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||Gigabyte GTX 970||850EVO 500GB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Trädvy Permalänk
Medlem
Plats
Digital medborgare
Registrerad
Aug 2004
Skrivet av daniz:

En fråga till er som kan detta med utveckling av spel. Är det enklare för utvecklare att endast använda ray tracing för ljussättning jämfört med att använda de gamla metoderna med "fakeade" ljuskällor för att få skuggningar korrekt osv? Alltså, är det så enkelt att med ray tracing är det bara att kasta in en ljuskälla och så blir all skuggning snygg av sig själv?

Problemet nu blir väll att man måste göra stöd för både ray tracing samt det traditioniella sättet.

Man slipper ju förbaka texturer, lightmaps, shadowmaps och liknande. Men det är jävligt dyrt beräkningsmässigt att göra det med raytracing. Om kraften hade funnits hade man bara kunnat definera alla ljuskällor och så hade resten skött sig själv. Nu finns det ju unity och unreal som kan göra förbakningen åt en och hantera dynamiska ljus, men det blir inte lika exakt och verklighetstroget som raytracing.

Skrivet av BrottOchStraff:

Kan någon förklara vad som är skillnaden mellan DXR och Nvidia Rey Tracing?

Kortfattat. DXR är inbyggt i Direct X, Nvidias är ett eget API. Om man använder Direct X så kan man använda det på alla kort som stödjer det och behöver inte skriva tillverkarspecifik kod.

gfårs 2080. 2700X guld. 32 Gigabong RAM. Server, NAS, pi, steamlink, casts, nätverkssladdar, sega master system, massor av faptops, mus med 17 knappar, öronproppar, strumpor av ren bomull med elastiskt band för att hålla dem uppe. 2 barn, 1 fru, 99 problem.

10nm == 7nm && 10nm != 7nm

Trädvy Permalänk
Medlem
Registrerad
Aug 2003
Skrivet av kelthar:

TACK SÅ MYCKET, CRYTEK!

Har nog inte så mycket med Crytek att göra.

RTX korten har sålt sämre än väntat.
Så Nvidia möjliggör för folk att se vilken enorm betydelse ray tracing har för den visuella upplevelsen.
Det är mer som ett demo för att marknadsföra RTX och motivera utvecklare att lägga till ray tracing i spel.

Trädvy Permalänk
Medlem
Plats
Linköping
Registrerad
Jun 2018
Skrivet av nubbe:

Har nog inte så mycket med Crytek att göra.

RTX korten har sålt sämre än väntat.
Så Nvidia möjliggör för folk att se vilken enorm betydelse ray tracing har för den visuella upplevelsen.
Det är mer som ett demo för att marknadsföra RTX och motivera utvecklare att lägga till ray tracing i spel.

Jag tror absolut att det har med CryTek att göra, då nVIDIA har fått konkurrans där billigare kort kan nyttja samma teknik till lägre pris (Och lägre prestanda). Dom måste bemöta detta på något sätt, och samtidigt som du säger så har RTX korten sålt sämre än väntat.

Enthoo Evolv ATX | Asus ROG Strix Z370-H Gaming | Delid 8700K UV 1.100v | NH-D15 | 32GB DDR4 | NVME M2 960 500GB | AG271QG | Gigabyte 1080Ti | R1600T3 Edifier | Sony MDR-1A | Cerberus MK II | Logitech G403 | SteelSeries QcK - XXL Musmatta | Mitt skrivbord Windows 2019 x64 Enterprise LTSC | ASUS MG279Q | Behöver du hjälp? Egna skriverier

Trädvy Permalänk
Medlem
Registrerad
Okt 2018

Jag tror felet är att man säger att korten fixar raytracing i realtid.

Definierar man raytracing som en scen i blender, så är det ren och skär lögn.
Annars skulle nog Pixar etc redan ha tagit fram liknande metoder för realtidsraytracing,
istället som nu spendera veckor för att rendera filmer, när de med DXR / Crytek / RTX skulle kunna få filmen klar på någon timma....

Men definerar man raytracing som ljussättning eller någon reflektion så går jag med på det,
men med få strålar som ger en väldigt brusig bild..

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG278Q 27" 144Hz

Ryzen 7 2700@4GHz / Cooler Master Evo 212 / Asus Prime B450 Plus / HyperX Predator 16GB DDR4 3200MHz / Asus RTX2060 Rog Strix OC

Trädvy Permalänk
Medlem
Registrerad
Aug 2003
Skrivet av iBurningMan:

Jag tror absolut att det har med CryTek att göra, då nVIDIA har fått konkurrans där billigare kort kan nyttja samma teknik till lägre pris (Och lägre prestanda). Dom måste bemöta detta på något sätt, och samtidigt som du säger så har RTX korten sålt sämre än väntat.

Man har redan kunnat använda tekningen på serverfarmar för att rendera filmer med pascal.

Tekniken är inte speciellt intressant för spel om man måste gå ner till 720p för att få 30+ fps
Crytek demot gör ingenting som AMD och Nvidia har kunnat göra tidigare

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Apr 2012

Smart drag av Nvidia. Även om det förstås kan ifrågasättas hurdan upplevelsen blir på gamla kort, så måste man nog ändå ut på bred front med nya tekniker för att de ska få fäste.

Jfr. med alla konsoltillbehör, typ ljuspistoler, Kinect, PS Move, osv. De hamnar alltid i någon slags limbo bestående av att ingen köper dem för att det inte finns spel, och inga utvecklare är intresserade av att göra spel till dem, då användarbasen är för liten.

Nu lurade jag dig allt att slösa bort ett par värdefulla sekunder av ditt liv på att läsa denna fullständigt poänglösa signatur!

Trädvy Permalänk
Medlem
Registrerad
Jan 2019

Ahh, det här påminner mig om PhysX - gått från att vara det häftigaste sedan skivat bröd när det släpptes, med krav på dedikerad hårdvara (i form av egna PCI-kort, kul bit historia för de som sitter på ett sådant fortfarande - de börjar bli ovanliga) till att bli en mer integrerad, men också mer bortglömd (när fullgoda alternativ började komma, om inte annat), feature som kan köras på allt, om än lite bättre på nVidia-hårdvara.

Trädvy Permalänk
Medlem
Plats
Umeå
Registrerad
Jul 2001

Ser framemot alla indiespel som kan använda DXR med inte så avancerad grafik så det blir spelbart med alla kort och vackert som tusan.

Pop OS! 19.04 <3, Windows 10pro (för spel). Asus Strix Z270H GAMING// Intel i7 7700k@4700Mhz// MSI GTX 1070 Gaming X 8G// Corsair VENGEANCE LPX 16GB.

Trädvy Permalänk
Häxmästare ✨
Jonas Thörnqvist
Plats
Stockholm
Registrerad
Apr 2002

Något som är lustigt är att Nvidia hade stöd för DirectX Raytracing för GTX 1000-serien vid lanseringen av Turing. Men antar att de stängde av detta ihop med de skarpa drivrutinerna senare.

Det är viktigt att belysa att DLSS är forcerat hos RTX-kortet ovan, vilket ger dem ytterligare en prestandaskjuts, men som synes är det rätt kämpigt för GTX 1080 Ti att dra runt ray tracing utan de dedikerade RT-kärnorna – åtminstone med teknikens implementation i Reflections-demot.

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Jan 2008
Skrivet av inquam:

Jag såg en video som talade om Ray Tracing som något Nvidia försökte sig på för att fortsätta vara relevanta. Vi är i en sitts där APU:er förmodligen inom ett par år är fullgoda alternativ för att kunna spela spel och att folk inte behöver köpa dedikerade grafikkort i samma skala. Hur ändrar man det? Precis som man fick HW T&L att bli en grej, sedan Vertex och Pixel shaders så försöker man få Ray Tracing att bli en grej. Lyckas man har man förmodligen säkrat sitt existensberättigande i ytterliggare tio år.

Men, detta visar också (igen), att Nvidia inte gjorde detta på rätt sätt. Att introducera denna teknologi genom ett galet dyrt kort som på inget sätt gjorde RayTracing till en del av "vanliga" konsumenters vokabulär och sammtidigt prestera marginellt bättre (eller till och med sämre) per krona i de spel folk spelar idag var fel strategi. Man försökte få konsumenter att tro att dedikerad hårdvara var "nödvändigt" för att rättfärdiga nya dyra kort och varför folk skulle överge sina kraftfull akort de redan satt på, när de utan problem hade kunnat ha stöd (om än långsammare och mer begränsat) även där. Men Nvidia är "bra" på att "låsa" funktioner till nya kort som egentligen skulle fungera utmärkt på äldre kort så det är inte så att man vart jätteförvånad.

Ray Tracing och Path Tracing har funnits länge och hade kunnat introduceras likt det man nu gör istället. Begränsade effekter på existerande kort som fick upp folks intresse. Sedan släpps kort med dedikerat stöd för att accelerera det hela (likt 3D -> HW 3D en gång i tiden) och man hade kunnat bygga därifrån.

Nvidia, även om de inte uttryckligen har sagt det, har med tydlighet visat att de internt också ser att 20-serien var en produkt de tryckte ut till en marknad som inte alls var intresserad av den.
Kanske kan vi få till en reset och se en metodisk introduktion av Ray Tracing nu när både Nvidia och AMD visar Ray Tracing på kort utan dedikerad hårdvara för det.

Det finns väl inga konsumentAPU:er idag som är kraftfullare än Tegra/Ryzen 2400G?
Har svårt att se att APU:er skulle ta över jobbet istället för dedikerade grafikkort inom kort.
Varför? Jo, för att det kommer bli en nedgradering tills en APU kan ge samma prestanda som ett mellanklasskort. Det är först då APU:er kan ersätta mellanklasskorten.
Jag kanske sovit under en sten men Intel har väl inte nämnt APUer i sin satsning på grafikmarknaden? AMD:s bästa idag vad jag vet är som sagt 2400G. Nvidia har inte nämnt Tegra på länge? Så vilka tar fram tekniken idag?
Jag tror en rimligare utveckling är att stora datorhallar maxade med Titan-klasskort kommer strömma ut spelandet när latenser och sådan kunnat minimeras. Tror dock detta är mer aktuellt om 10 år.

Dator: Corsair 460X RGB, i7 6700K @ 4,6 Ghz, Asus Maximus VIII Gene, Noctua D15, Corsair LPX 32GB@3000MhzCL15, ASUS GTX 1080ti OC, Kingston HyperX SSD 120GB, Samsung 840 EVO 250GB, Samsung 850 EVO 500 GB, Samsung 960 EVO 1TB, Corsair RM650x.
Skärm: ASUS PG348Q

Trädvy Permalänk
Medlem
Registrerad
Aug 2003
Skrivet av Pettson88:

Ahh, det här påminner mig om PhysX - gått från att vara det häftigaste sedan skivat bröd när det släpptes, med krav på dedikerad hårdvara (i form av egna PCI-kort, kul bit historia för de som sitter på ett sådant fortfarande - de börjar bli ovanliga) till att bli en mer integrerad, men också mer bortglömd (när fullgoda alternativ började komma, om inte annat), feature som kan köras på allt, om än lite bättre på nVidia-hårdvara.

PhysX är en integrerad del av Unity, Unreal Engine , etc
Används i nästan alla ny spel i och med att det är open source

Du tar det bara för givet att fysik ska finnas i spel, lika så kommer det att vara med ray tracing om 10 år. Det kommer att vara en självklar teknik i alla spel.

Trädvy Permalänk
Datavetare
Plats
Stockholm
Registrerad
Jun 2011
Skrivet av BrottOchStraff:

Kan någon förklara vad som är skillnaden mellan DXR och Nvidia Raytracing?

Lite längre förklaring hittar du här.

TL;DR är att "RTX" är Nvidias programstack+HW-stöd för att implementera DXR.

Finns egentligen ingen "Nvidia specifik" API för detta, API är DXR som är en del av DirectX.
Men Nvidia måste ju självklart skriva proprietär kod för att på effektivast möjliga sätt köra DXR på deras GPUer, det är "Nvidia Raytracing".

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Trädvy Permalänk
Hjälpsam
Plats
Karlskoga
Registrerad
Jan 2007
Skrivet av BrottOchStraff:

Kan någon förklara vad som är skillnaden mellan DXR och Nvidia Raytracing?

DXR är en del av DirectX 12, som används för att köra Raytracing på DX12.

Nvidia Raytracing, är nog det som brukar kallas RT och som bara finns på RT korten, det är en speciell hårdvara som snabbar upp DXR anropen.

Man kan också köra DXR utan speciell hårdvara, men då går det långsammare, det är detta som Nvidia nu säger sig göra möjligt, från GTX1060 och uppåt.

AMD Ryzen 7 1700 | Vega RX 64 Super | 64 GB Corsair @2933 MT/s | https://valid.x86.fr/fgqnte | Stockkylaren | Bitfenix Whisper M 750W.
AMD FX8350 | Polaris RX 460 4 GB | 32 GB Kingston ECC | https://valid.x86.fr/0q5pkm | Cooler Master V 700W.
HTPC | https://valid.x86.fr/ez1zxw |

Trädvy Permalänk
Medlem
Plats
Jämtland
Registrerad
Aug 2009
Skrivet av nubbe:

Det är lite sorgligt att folk inte riktigt förstår att man alltid har kunna köra Ray tracing på GPU och CPU sedan tekniken utvecklades för några decennier sedan.

RTX har algoritmer som är speciellt utvecklade för att rendera Ray tracing med 60+ bilder per sekund istället för bilder per minut, timme eller dagar.

Hur förklarar man att Vega 56 klarar att rendera det då?
Ärligt nyfiken, har inte satt mig in alls mycket i RT, då det inte varit aktuellt för mig för tillfället.

*Citera för svar*
Work smart, not hard.

Trädvy Permalänk
Medlem
Plats
Götet
Registrerad
Okt 2013
Skrivet av Viochee:

Stod i artikeln

Fast det var väl inte nåt svar på vad poängen var? Står ju som jag påpekade att det är menlöst att ha det för dessa kort eftersom de inte mäktar med det.

Skickades från m.sweclockers.com

Processor: Motorola 68000 | Klockfrekvens: 7,09 Mhz (PAL) | Minne: 256 kB ROM / 512 kB RAM | Bussbredd: 24 bit | Joystick: Tac2 | Operativsystem: Amiga OS 1.3

Trädvy Permalänk
Medlem
Registrerad
Aug 2003
Skrivet av Purrfected:

Hur förklarar man att Vega 56 klarar att rendera det då?
Ärligt nyfiken, har inte satt mig in alls mycket i RT, då det inte varit aktuellt för mig för tillfället.

Alla GPUer och CPUer kan göra Ray tracing
DXR är en del a DX12

Alla grafikkort som stödjer DX12 kan köra Direct X Ray tracing om det stöds i drivrutinen

Trädvy Permalänk
Medlem
Registrerad
Jan 2019
Skrivet av nubbe:

PhysX är en integrerad del av Unity, Unreal Engine , etc
Används i nästan alla ny spel i och med att det är open source

Du tar det bara för givet att fysik ska finnas i spel, lika så kommer det att vara med ray tracing om 10 år. Det kommer att vara en självklar teknik i alla spel.

Däri ligger likheten - banbrytande teknologi (oavsett om det är nya instruktioner i APIer eller ett helt nytt API) är inte alltid bra implementerad från start, medan det ett decennium senare kan vara standard. (Tolka absolut inte mitt inlägg som att jag kritiserar konceptet att introducera realtids raytracing, det var verkligen inte det jag menade.) Men först i och med att implementeringen blev open source och körbar på annat än AGEIAs PPUer och senare nVidias GPUer, och kunde integreras i spelmotorer bra mycket lättare, blev det smärtfriare (både vad gäller arbete och kostnad) för hårdvaru- och mjukvaruleverantörer att få in teknologin. PhysX som är integrerat i spelmotorer är tillräckligt teknikagnostiskt i dag, och tillräckligt lättdrivet, för att inte behöva dedikerad hårdvara som *bara* gör PhysX-beräkningar.

Dock är inte PhysX den enda lösningen för att hantera fysikberäkningar och -rendering - finns alternativ som ex. Bullet eller Havok. Precis som nVidias RTX förhoppningsvis inte kommer vara den enda APIn för att hantera raytracing i framtiden. (Och/eller med förhoppning att den omarbetas och förädlas till att bli någon form av open-source, och körbar lite mer effektivt på annat än oproportionerligt dyr proprietär ensyfteshårdvara från samma bolag.)

Trädvy Permalänk
Medlem
Registrerad
Okt 2016
Skrivet av Markusas:

Det finns väl inga konsumentAPU:er idag som är kraftfullare än Tegra/Ryzen 2400G?
Har svårt att se att APU:er skulle ta över jobbet istället för dedikerade grafikkort inom kort.
Varför? Jo, för att det kommer bli en nedgradering tills en APU kan ge samma prestanda som ett mellanklasskort. Det är först då APU:er kan ersätta mellanklasskorten.
Jag kanske sovit under en sten men Intel har väl inte nämnt APUer i sin satsning på grafikmarknaden? AMD:s bästa idag vad jag vet är som sagt 2400G. Nvidia har inte nämnt Tegra på länge? Så vilka tar fram tekniken idag?
Jag tror en rimligare utveckling är att stora datorhallar maxade med Titan-klasskort kommer strömma ut spelandet när latenser och sådan kunnat minimeras. Tror dock detta är mer aktuellt om 10 år.

Intel säger inte ”APU” alls, men de har visat nästa steg i sin integrerade grafik som åtminstone är ett steg framåt om man räknar i antal EU (64 i GT2). Hur bra det blir återstår att se när de eventuellt släpper en processor med detta i.

Nej, den som är intressant när det gäller APUer framöver är AMD, med tanke på vad de visat med sina chiplets på Zen 2. De skulle exempelvis kunna göra en APU som är en Zen 2-chiplet, en chiplet för I/O, och en hyfsad GPU. Det som då fattas är minnesbandbredden att få allt detta att gå ihop, men om det sitter en hyfsad cache någonstans i paketet, lite som Intels Crystalwell men bara stor nog för framebuffern, så kan nog detta flyga bra nog för att klara 1080p. Vill man ha mer prestanda så finns ju HBM.

Skickades från m.sweclockers.com

Trädvy Permalänk
Medlem
Plats
Sundsvall
Registrerad
Okt 2003
Skrivet av BostonGurkan:

Nu kanske man måste uppleva det med en stark rigg framför sig och inte på komprimerade videos på nätet, men jag är inte särskilt imponerad av vad RT tillför till det visuella. Sett till hur mycket prestanda det suger så tar jag hellre bättre flyt, partikeleffekter och annat lull lull.

Exakt, och tar man det sedan ett steg längre och utvärderar "upplevelse per krona" blir RT definitivt ingen hit.

Skrivet av kelthar:

Man slipper ju förbaka texturer, lightmaps, shadowmaps och liknande. Men det är jävligt dyrt beräkningsmässigt att göra det med raytracing.

Precis. Om man nöjer sig med att programmera för RT blir programmeringen mycket enklare och smidigare, och den som kör programmet får se ett väldigt vackert bildspel!

För övrigt anser jag att MS FlightSim X borde vara standard som ett av benchmarkprogrammen.