Racingtiteln Assetto Corsa Competizione dumpar Nvidia RTX-stöd

Permalänk

@Vangen: Jag hoppas verkligen att det inte blir så.

Permalänk
Medlem
Skrivet av Sidde:

Låter inte realistiskt utan en större mängd framedrops. Att öht spela i 60fps i 4K är bara precis möjligt med en highend-dator idag i de mer avancerade speltitlar.
Kanske fungerar bra att erbjuda möjligheten till 60fps i 4k eftersom det också kommer dyka upp mindre avancerade spel.

Då kan vi gå tillbaka till 2005 när Xbox 360 lanserades och jämföra med high-end PC's då och då låter inte 60 fps i 4k helt omöjligt för Xbox 360 presterade avsevärt bättre än de flesta datorer i 10k klassen på den tiden för mindre än halva priset.

https://www.youtube.com/watch?v=L9uxfssheD0

som du ser här så presterade den "starkaste" gpu'n ganska dåligt när Xbox 360 lanserades

Men visst, blir nog sådär som vanligt.

Visa signatur

R7 5800X3D / RX 6950 XT / 32GB Ram / 1TB SSD / X570 Bräda / 850w Nätagg.
32 Tums Skärm 1440p 144hz Curved VA panel.

Permalänk
Medlem

Raytracing är något som borde uppmuntras och stödjas som en naturlig evolution av spelgrafik. Men INTE som en nvidia-exklusiv teknik. Det är helt fel väg att gå. Har kört nvidia sedan Radeon 9800 Agp. Men börjar bli lite allergisk mot företaget. Vi får se vad som händer men jag är glad att amd finns för allas skull.

Skickades från m.sweclockers.com

Visa signatur

Min musik: https://www.youtube.com/channel/UCZKidNeIKsz8LZMO3VRcBdQ

Ryzen 3900x. Skärm: AOC cu34g2x/bk 144hz 34" ultrawide. RTX 2080ti

Laptop: MSI GT80 Titan Sli

Permalänk
Medlem
Skrivet av serverfel:

Raytracing är något som borde uppmuntras och stödjas som en naturlig evolution av spelgrafik. Men INTE som en nvidia-exklusiv teknik. Det är helt fel väg att gå. Har kört nvidia sedan Radeon 9800 Agp. Men börjar bli lite allergisk mot företaget. Vi får se vad som händer men jag är glad att amd finns för allas skull.

Skickades från m.sweclockers.com

Det är inte exklusivt för Nvidia, det finns ju i DX12.

Permalänk
Medlem
Skrivet av serverfel:

Raytracing är något som borde uppmuntras och stödjas som en naturlig evolution av spelgrafik. Men INTE som en nvidia-exklusiv teknik. Det är helt fel väg att gå. Har kört nvidia sedan Radeon 9800 Agp. Men börjar bli lite allergisk mot företaget. Vi får se vad som händer men jag är glad att amd finns för allas skull.

Skickades från m.sweclockers.com

Skrivet av mill:

Det är inte exklusivt för Nvidia, det finns ju i DX12.

Trådtiteln handlar om NVidia RTX-stöd förutsätter att han diskutterar detta och inte DX-12

Permalänk
Medlem
Skrivet av lappen81:

Trådtiteln handlar om NVidia RTX-stöd förutsätter att han diskutterar detta och inte DX-12

API;et som används är Dx12 DXR och det är inte nVidia-exklusivt på något vis.

Permalänk

RTX-korten påminner mig lite om mitt första grafikkort med "3d acceleration" från 1996: ATI 3D Rage 2+DVD

Dåligt spelstöd. Tror det fanns 3 spel som lirade ok på detta Ati-kort. Antingen var frameraten för låg, eller så saknades viktiga 3d-egenskaper i kretsen, som gjorde många spel ospelbara (tex att rök i actionspel kanske inte blev genomskinlig) ...lagom till att drivrutinerna blev ok så var frameraten ungefär så här.

Jag får verkligen samma känsla med RTX-korten.Raytracingen är många ggr inkorrekt, dålig framerate, och man uppmanas att invänta framtiden när 3dmotorerna ska vara "bättre optimerade".

Visa signatur

Dator: EEE901 N270/ 1GB / 20GB SSD ... Kraftigt nedbantat/tweakat Win7 x86 for speeeEED!
Facebook användare? Hatar tidslinjen? gå med i denna FB-grupp:
Undo Timeline ...med lite tur får h*lvetet ett slut!

Permalänk
Medlem
Skrivet av mill:

Det är inte exklusivt för Nvidia, det finns ju i DX12.

Skrivet av lappen81:

Trådtiteln handlar om NVidia RTX-stöd förutsätter att han diskutterar detta och inte DX-12

Skrivet av DasIch:

API;et som används är Dx12 DXR och det är inte nVidia-exklusivt på något vis.

Nej men jag missförstod nog det hela. Jag trodde att man var beroende av nvidias hårdvara, och visste inte att det var en "öppen" standard via DX12. Så jag får väll anse mig rättad och lättad i guess. Lite klokare tack vare er.

Visa signatur

Min musik: https://www.youtube.com/channel/UCZKidNeIKsz8LZMO3VRcBdQ

Ryzen 3900x. Skärm: AOC cu34g2x/bk 144hz 34" ultrawide. RTX 2080ti

Laptop: MSI GT80 Titan Sli

Permalänk
Medlem
Skrivet av Oliver91:

Ray tracing är inte redo, de skulle väntat och se om next-gen konsoler får stöd för det först.

Nej, det håller jag inte med om. Det är kul att Nvidia försöker och pushar PC-sidan. Gör det till en ledande plattform istället för att åka i kölvattnet av konsolerna. Vi vill ju ha PC-first utvecklade spel och inte halvdana konsolportar igen.

Sen har ju ray tracing varit lite av en besvikelse hittills dock. Jag trodde att det skulle vara fler spel som hade implementerat tekniken vid det här laget. Jag hoppas att Cyberpunk 2077 får en vettig implemantation och förhoppningsvis kommer nästa generation Nvidia tills dess eller strax därefter i alla fall.

Permalänk
Medlem
Skrivet av DasIch:

API;et som används är Dx12 DXR och det är inte nVidia-exklusivt på något vis.

Det står att RTX droppas inte DXR, nu kanske båda droppas, säger du att DXR fungerar fullt ut på RTX utan dedikerad hårdvara eller specifik anpassning för RTX?

"Nvidia RTX is a graphics rendering development platform created by Nvidia, primarily aimed at enabling real time ray tracing. ... RTX runs on Nvidia Volta- and Turing-based GPUs, specifically utilizing the Tensor cores (and new RT cores on Turing) on the architectures for ray tracing acceleration."

"A: The DLSS team first extracts many aliased frames from the target game, and then for each one we generate a matching “perfect frame” using either super-sampling or accumulation rendering. These paired frames are fed to NVIDIA’s supercomputer. The supercomputer trains the DLSS model to recognise aliase"

Permalänk
Medlem
Skrivet av Dual-Tjur:

inte lätt att ha RTX on vid 300km/h

I den hastigheten hinner man ändå inte uppfatta omgivningen...

Permalänk
Medlem
Skrivet av serverfel:

Nej men jag missförstod nog det hela. Jag trodde att man var beroende av nvidias hårdvara, och visste inte att det var en "öppen" standard via DX12. Så jag får väll anse mig rättad och lättad i guess. Lite klokare tack vare er.

Ja det trodde jag med det är ju så det har marknadsförts och diskutterats i forumet / dedikerad hårdvara på deras kort just för detta som inte lär implementeras på andra kort, känns långsökt att man via DX12 kan köra RTX korten fullt ut utan några andra ingrepp, men skillnaden kanske blir minimal / känns dock konstigt isf

Permalänk
Medlem
Skrivet av lappen81:

Ja det trodde jag med det är ju så det har marknadsförts och diskutterats i forumet / dedikerad hårdvara på deras kort just för detta som inte lär implementeras på andra kort, känns långsökt att man via DX12 kan köra RTX korten fullt ut utan några andra ingrepp, men skillnaden kanske blir minimal / känns dock konstigt isf

I t ex Battlefield V är implementationen DXR, fast såklart optimerat för Nvidia eftersom det är de som har hårdvaran, men det kan justeras vid behov: Battlefield 5’s ray tracing build isn’t necessarily limited to Nvidia’s RTX cards

“We only really talk with DXR,” DICE’s Technical Director, Christian Holmquist told me this week, “but because we have been running with Nvidia hardware we know that we have optimised for that hardware.”

But even though everything is optimised for Nvidia’s RTX cards, and is currently intrinsically linked with its technology, Holmquist seemed certain that it wouldn’t be a problem to port the build to alternative DXR-capable hardware.

“We also use certain features in the compiler with intrinsics, so there is a dependency,” he says, “but that can be resolved when we get hardware from a potential other manufacturer.”

Permalänk
Medlem

Nvidias variant dumpas nog oxå delvis pga konsoler kommer köra amd hårdvara rakt igenom och ha raytracing anpassat efter deras hårdvara. Nvidias rtx i 20 serien är gimmick, marknadsföring för att kunna höja marginalerna. "Kolla hääääär va vi ger er nu om ni öppnar plånboken". Utmärkt sätt av dem att göra sig av med all skräpande rtx hårdvara som inte klarat kvalitets kontrollen till proffskorten. O folk köpte marknadsföringen som vanligt.. öööh.. de är ju Nvidia.. o betalar än mer överpris för korten allt medan aktiepamparna gnuggar händerna över än större vinstmarginaler. Nvidias marknadsföring är rackarns effektiv o ful som *****... (De krängde ju på folk 2070 som efterträdaren till 1070 fast de eg var efterträdaren till 1060 6gb... O när Amd kom med 5700 så släpptes riktiga 2070 som "super") fett mkt högre marginaler fick de ut på "2070" ett bra tag.

Visa signatur

Lian-Li Tu150 (fläktmoddad) w Corsair SF750 Platinum SFX / Asus Strix B550-i Itx / Ryzen 5600x @ 4.92.. Scythe Fuma 2 / Crucial Ballistix 2x16 3600@4000 / WD Black SN850 NVME + Kingston A2000 NVME / MSI Radeon RX 6800 referens / 2x120mm Noctua NF-A12x15 golv. 2x120mm Noctua NF A12x25 In och Utblås. Fläktmod tak 1x140mm Noctua NF A14 utlblås via kammare baktill. Samsung 34" c34j791 3440x1440.

Permalänk
Medlem
Skrivet av lappen81:

Det står att RTX droppas inte DXR, nu kanske båda droppas, säger du att DXR fungerar fullt ut på RTX utan dedikerad hårdvara eller specifik anpassning för RTX?

"Nvidia RTX is a graphics rendering development platform created by Nvidia, primarily aimed at enabling real time ray tracing. ... RTX runs on Nvidia Volta- and Turing-based GPUs, specifically utilizing the Tensor cores (and new RT cores on Turing) on the architectures for ray tracing acceleration."

"A: The DLSS team first extracts many aliased frames from the target game, and then for each one we generate a matching “perfect frame” using either super-sampling or accumulation rendering. These paired frames are fed to NVIDIA’s supercomputer. The supercomputer trains the DLSS model to recognise aliase"

Alltså, DX och DXR är en mellanhand mellan hårdvara och applikation. Däri finns vissa funktioner spelutvecklarna kan utnyttja, utan att arbeta direkt mot hårdvaran. Det är alltså hårdvaruagnostiskt. Så länge hårdvara/drivrutiner tillåter att funktionerna exekveras.
Nvidia har endast byggt hårdvara som är mycket bättre på att köra funktionerna för strålspårning. Det går dock att köra på annan hårdvara också. Pascal har tex fått stöd för det i drivrutinerna.

DLSS är en annan sak och exklusivt för nVidia. Typ som hairworks och liknande.

Skickades från m.sweclockers.com

Permalänk
Snusfri

För mig som renderar med Iray så snabbar Tensor cores upp mina renderingar väldigt mycket, stor skillnad med mitt 2070 Super jämfört med mitt gamla 1070.

Oftast så halveras tiden per scen.

Skickades från m.sweclockers.com

Visa signatur

WS: i9 13900K - 128GB RAM - 6.5TB SSD - RTX 3090 24GB - LG C2 42" - W11 Pro
LAPTOP 1: Lenovo Gaming 3 - 8GB RAM - 512GB SSD - GTX 1650
LAPTOP 2: Acer Swift 3 - 8GB RAM - 512GB SSD
SERVER: i5 10400F - 64GB RAM - 44TB HDD
NALLE: Pixel 7 Pro

Permalänk
Quizmaster Malmö 22

Ännu en spik i Nvidias RTX kista!

Samt ännu ett bevis på att inlåst teknologi i denna branschen inte fungerar.

Visa signatur

[Gigabyte EP35-DS4][Intel Core 2 Duo E8400 3.0 Ghz][2x2GB Corsair XMS 2][Gainward GTX 570][Sandisk Extreme II 480GB][Corsair HX 620W][Fractal Design Define XL R4][Acer GD245HQBID]

Permalänk
Medlem
Skrivet av DasIch:

Alltså, DX och DXR är en mellanhand mellan hårdvara och applikation. Däri finns vissa funktioner spelutvecklarna kan utnyttja, utan att arbeta direkt mot hårdvaran. Det är alltså hårdvaruagnostiskt. Så länge hårdvara/drivrutiner tillåter att funktionerna exekveras.
Nvidia har endast byggt hårdvara som är mycket bättre på att köra funktionerna för strålspårning. Det går dock att köra på annan hårdvara också. Pascal har tex fått stöd för det i drivrutinerna.

DLSS är en annan sak och exklusivt för nVidia. Typ som hairworks och liknande.

Skickades från m.sweclockers.com

Så varje spel behöver inte optimeras eller drivrutinerna behöver inte anpassas för varje spel så länge spelet stödjer DXR så körs RTX fullt ut med undantag för DLSS då? , vilket isåfall är superbra

Permalänk
Medlem
Skrivet av lappen81:

Så varje spel behöver inte optimeras eller drivrutinerna behöver inte anpassas för varje spel så länge spelet stödjer DXR så körs RTX fullt ut med undantag för DLSS då? , vilket isåfall är superbra

Jag vet inte hur det ser ut mer specifikt men det lär vara precis som vanligt, med vilket spel som helst. Går säkert att optimeras i både spelkod och drivrutiner.

Skickades från m.sweclockers.com

Permalänk
Skrivet av Campaigner:

Ännu en spik i Nvidias RTX kista!

Samt ännu ett bevis på att inlåst teknologi i denna branschen inte fungerar.

Kan du/någon förklara för mej varför Nvidias teknologi i det här sammanhanget skulle vara inlåst?

Permalänk
Datavetare

Givet att SweClockers är ett forum för datorentusiaster är teknikfientligheten i vissa trådar rätt förvånande.

Är det någon som förväntar sig att v1.0 av något ska bli "perfekt grabbar, vi satte det perfekt och behöver inte ändrar något framöver"?

Geforce 256 introducerade T&L hösten 1999, förutom de titlar som var baserade på Quake3 motorn där OpenGL användes lär nog få ägare av första generationen Geforce-kort haft någon som helst nytta av HW T&L. Ändå var lanseringen av Geforce 256 en förutsättning för att spel skulle kunna börja gå mot HW T&L, 4-5 år senare var tekniken en självklarhet!

Samma sak när "Programmable Pixel & Vertex Shaders" lanserades (Geforce 3 & Radeon 8500). Första generationen kort kunde inte utnyttja tekniken speciellt mycket då de var väl klena plus att Nvidia/Ati kunde ju knappast lura ut var de bäst spenderar transistorerna med mindre än att de gör en v1.0, låter utvecklarna jobba med tekniken och kolla var flaskhalsarna uppträder.

Om det är något som så här långt får ses som ett ovanligt stort misslyckade så är det DX12/Vulkan. Personligen hade jag svårt redan från start att riktigt se poängen med en "lågnivå API" till PC, det är ju helt bakvänt mot hur saker rimligen borde ha utvecklats.

DX11 började absolut uppvisa brister, men dessa hade utan problem kunna hanteras med ett "högnivå API" DX12. Så att man försökt överge DX11 är inte problemet, utan missen är att man försökte använda ett angreppssätt som är helt vettig på konsoler där man normalt har en enda HW-konfiguration att ta hänsyn till (något som både Sony och Microsoft i.o.f.s. lyckats strula till denna konsolgeneration). Det är en rätt dålig idé för PC där normalfallet är en rätt heterogen maskinpark.

Apple har med Metal redan bevisat att lågnivå-delen av DX12/Vulkan är onödig, Metal har i princip samma fördelar på moderna GPUer men är ändå ett API helt i nivå med DX11/OpenGL sett till abstraktionsnivå. Rätt ironiskt att just Apple inte valde lågnivå vägen då de har en betydligt homogenare HW att ta hänsyn till jämfört med PC-marknaden.

På lite lägre sikt kommer Microsoft och Khronos fixa till DX12/Vulkan, på kortare sikt får man hoppas att spelmotorer som UE och Unity kan få rätsida på lågnivåkrafset på ett sätt så spelutvecklarna slipper. För just nu bromsas saker som DXR och Variable Rate Shading (VRS kanpå kort sikt mycket väl bli viktigare än DXR då det är en viktig teknik för att kunna använda högre upplösningar) då de kräver DX12.

Trots bromsande från DX12 har ju DXR så här långt introducerats snabbare än tekniker som T&L och "Programmable Pixel & Vertex Shaders". DX12 gör tyvärr saker svårare för spelutvecklare, heliga graalen med DXR är ju just att det (när man kan förutsätta HW-stöd för det) förenklar för utvecklarna. Saker som driver ner utvecklingskostnader lär stå rätt högt på bönräknarnas lista, och tyvärr är det de som ofta anger riktningen...

Vidare, vad har hänt med slagorden "jag använder mitt system för andra saker"? Redan idag är RT-kärnorna en revolution för prestanda i renderingsprogram (flera av de kommersiella programmen har ju stöd och även utan stöd från RT-kärnor, som t.ex. Blender just nu, är ändå Turing klart mer effektiv jämfört med Pascal p.g.a. ändringar i mikroarkitektur). Tensor-kärnorna ger motsvarande lyft för maskininlärning (träningssteget).

Inte illa pinkat för en v1.0, men just då det är en v1.0 får man räkna med att Ampere lär köra över Turing just på de här punkterna!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Hade varit kul att se lite mer titlar med RT och inte mindre. Har bara använt det i Metro hitills själv då jag inte har spelat några av de andra spelen som har RT ännu.

Var väldigt trevligt med global illumination i Metro Exodus även om fps mer än halverades i vissa områden i spelet.
Det var verkligen tungdrivet med RTX ON och 1440p med high settings, mitt 2080Ti fick svettas ordentligt!

Det är tråkigt att se att så många i denna tråd och andra är nöjda över att det inte går frammåt snabbare med DRX i spel för att dom felaktigt tror att det är något som är låst till endast nvidia när det inte är det.

Bara för att det inte finns i många spel ännu och dagens hårdvara är dyr och inte kan dra runt det i 120fps+ så är det inte en gimmick eller något meningslöst. Bara baserat på hur jag upplevde Metro med DXR av och på så vill jag se det i mer spel inte mindre.

Visa signatur

CPU: i9 13900kf MB: Strix z790-F RAM: 32GB Corsair Dominator Platinum RGB 5600cl36 GPU: RTX 4090 Suprim X SSD: Samsung 980 pro 1TB,960 Pro 512GB, 960 Pro 500GB 850 evo 1TB x2 860 evo 1TB Cooler: h150i elite lcd PSU:AX1200i Case: Phanteks P600S TG
Main Display: MSI Optix MAG281URF Peripherals: Logitech G915, G903, Pro X Wireless, Powerplay

Permalänk
Quizmaster Malmö 22
Skrivet av Bembicini:

Kan du/någon förklara för mej varför Nvidias teknologi i det här sammanhanget skulle vara inlåst?

De enda som har tillgång till den är Nvidia. Inlåst var kanske fel ord. Exklusiv då.

Visa signatur

[Gigabyte EP35-DS4][Intel Core 2 Duo E8400 3.0 Ghz][2x2GB Corsair XMS 2][Gainward GTX 570][Sandisk Extreme II 480GB][Corsair HX 620W][Fractal Design Define XL R4][Acer GD245HQBID]

Permalänk
Medlem
Skrivet av Yoshman:

Givet att SweClockers är ett forum för datorentusiaster är teknikfientligheten i vissa trådar rätt förvånande.

Är det någon som förväntar sig att v1.0 av något ska bli "perfekt grabbar, vi satte det perfekt och behöver inte ändrar något framöver"?

Geforce 256 introducerade T&L hösten 1999, förutom de titlar som var baserade på Quake3 motorn där OpenGL användes lär nog få ägare av första generationen Geforce-kort haft någon som helst nytta av HW T&L. Ändå var lanseringen av Geforce 256 en förutsättning för att spel skulle kunna börja gå mot HW T&L, 4-5 år senare var tekniken en självklarhet!

Samma sak när "Programmable Pixel & Vertex Shaders" lanserades (Geforce 3 & Radeon 8500). Första generationen kort kunde inte utnyttja tekniken speciellt mycket då de var väl klena plus att Nvidia/Ati kunde ju knappast lura ut var de bäst spenderar transistorerna med mindre än att de gör en v1.0, låter utvecklarna jobba med tekniken och kolla var flaskhalsarna uppträder.

Om det är något som så här långt får ses som ett ovanligt stort misslyckade så är det DX12/Vulkan. Personligen hade jag svårt redan från start att riktigt se poängen med en "lågnivå API" till PC, det är ju helt bakvänt mot hur saker rimligen borde ha utvecklats.

DX11 började absolut uppvisa brister, men dessa hade utan problem kunna hanteras med ett "högnivå API" DX12. Så att man försökt överge DX11 är inte problemet, utan missen är att man försökte använda ett angreppssätt som är helt vettig på konsoler där man normalt har en enda HW-konfiguration att ta hänsyn till (något som både Sony och Microsoft i.o.f.s. lyckats strula till denna konsolgeneration). Det är en rätt dålig idé för PC där normalfallet är en rätt heterogen maskinpark.

Apple har med Metal redan bevisat att lågnivå-delen av DX12/Vulkan är onödig, Metal har i princip samma fördelar på moderna GPUer men är ändå ett API helt i nivå med DX11/OpenGL sett till abstraktionsnivå. Rätt ironiskt att just Apple inte valde lågnivå vägen då de har en betydligt homogenare HW att ta hänsyn till jämfört med PC-marknaden.

På lite lägre sikt kommer Microsoft och Khronos fixa till DX12/Vulkan, på kortare sikt får man hoppas att spelmotorer som UE och Unity kan få rätsida på lågnivåkrafset på ett sätt så spelutvecklarna slipper. För just nu bromsas saker som DXR och Variable Rate Shading (VRS kanpå kort sikt mycket väl bli viktigare än DXR då det är en viktig teknik för att kunna använda högre upplösningar) då de kräver DX12.

Trots bromsande från DX12 har ju DXR så här långt introducerats snabbare än tekniker som T&L och "Programmable Pixel & Vertex Shaders". DX12 gör tyvärr saker svårare för spelutvecklare, heliga graalen med DXR är ju just att det (när man kan förutsätta HW-stöd för det) förenklar för utvecklarna. Saker som driver ner utvecklingskostnader lär stå rätt högt på bönräknarnas lista, och tyvärr är det de som ofta anger riktningen...

Vidare, vad har hänt med slagorden "jag använder mitt system för andra saker"? Redan idag är RT-kärnorna en revolution för prestanda i renderingsprogram (flera av de kommersiella programmen har ju stöd och även utan stöd från RT-kärnor, som t.ex. Blender just nu, är ändå Turing klart mer effektiv jämfört med Pascal p.g.a. ändringar i mikroarkitektur). Tensor-kärnorna ger motsvarande lyft för maskininlärning (träningssteget).

Inte illa pinkat för en v1.0, men just då det är en v1.0 får man räkna med att Ampere lär köra över Turing just på de här punkterna!

Tack! Satt och tänkte samma sak när jag läste denna tråden (och andra).
Det är ett evigt gnällande om att Nvidia’s RT bara är trams, det kommer inte slå igenom och korten är för dyra. Man behöver inte ens gå in i en tråd för att veta att 75% av inläggen handlar om att man lika gärna kan köra 1080ti..
Är inte saker gratis och klockar 5ghz, sprutar ut 300fps på Ultra rullandes på en 240hz skärm så är det tydligen meningslöst.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Vangen:

Förvånas inte om detta blir en trend att dumpa RTX stöd.

Med tanke på att fler och fler spel inkluderar RTX stöd, plus det faktum att hela industrin rör sig mot ray tracing.
Så skulle jag nog gissa på att så inte är fallet.

Permalänk
Medlem

Det märkliga är att de använder Unreal Engine för grafiken, så för att aktivera ray-tracing behöver de bara slå på en switch mer eller mindre.

Permalänk
Medlem
Skrivet av mill:

Det märkliga är att de använder Unreal Engine för grafiken, så för att aktivera ray-tracing behöver de bara slå på en switch mer eller mindre.

Spelet kör DX11 så hade dom inte behövt porta över hela skiten till DX12 först?

Skickades från m.sweclockers.com

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem
Skrivet av Yoshman:

Vidare, vad har hänt med slagorden "jag använder mitt system för andra saker"? Redan idag är RT-kärnorna en revolution för prestanda i renderingsprogram (flera av de kommersiella programmen har ju stöd och även utan stöd från RT-kärnor, som t.ex. Blender just nu, är ändå Turing klart mer effektiv jämfört med Pascal p.g.a. ändringar i mikroarkitektur). Tensor-kärnorna ger motsvarande lyft för maskininlärning (träningssteget).

Det var nog CPU (och spel) det snackades om. Annars måste det ha varit ML. Man kan ju inte göra vad som helst med RT/TC då de är snäva i vad man kan använda dem till.

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem
Skrivet av ClintBeastwood:

Spelet kör DX11 så hade dom inte behövt porta över hela skiten till DX12 först?

Skickades från m.sweclockers.com

Ah missade det. UE verkar stödja DX12 också, men vet inte detaljerna i deras implementation så svårt att veta hur mycket jobb det vore att gå från DX11 till 12. Jobb är det givetvis, man får det inte gratis.

Permalänk
Medlem
Skrivet av Olsson80:

Tack! Satt och tänkte samma sak när jag läste denna tråden (och andra).
Det är ett evigt gnällande om att Nvidia’s RT bara är trams, det kommer inte slå igenom och korten är för dyra. Man behöver inte ens gå in i en tråd för att veta att 75% av inläggen handlar om att man lika gärna kan köra 1080ti..
Är inte saker gratis och klockar 5ghz, sprutar ut 300fps på Ultra rullandes på en 240hz skärm så är det tydligen meningslöst.

Skickades från m.sweclockers.com

Jag tycker funktionen är fantastisk, men utförandet är värdelöst. De visste att de ägnade för få transistorer till de kärnorna från början, men de kunde inte ägna fler för då hade korten blivit så ofantligt dyra. Tycker att det är bullshit att stoppa med en funktion vars utförande är mediokert på ett kort som för övrigt levererar sinnesjukt bra prestanda. Det hänger inte med resten av kortet och blir flaskhalsen i systemet...

Skrivet av mill:

Ah missade det. UE verkar stödja DX12 också, men vet inte detaljerna i deras implementation så svårt att veta hur mycket jobb det vore att gå från DX11 till 12. Jobb är det givetvis, man får det inte gratis.

Skrivet av Yoshman:

Om det är något som så här långt får ses som ett ovanligt stort misslyckade så är det DX12/Vulkan. Personligen hade jag svårt redan från start att riktigt se poängen med en "lågnivå API" till PC, det är ju helt bakvänt mot hur saker rimligen borde ha utvecklats.

Inte jag heller, men kör man UE så känns det som man får det lite få köpet och att deras motor ska hantera alla saker som sker annorlunda. Fast så enkelt är det väl inte.

Edit: Nu när jag kollade lite så verkar det som någon utan problem kört ett demo som UE har i både dx11 och dx12 utan problem. Där ger DX12 stor prestandaförbättringar. Utifrån det verkar det vettigt att köra DX12 i stället för DX11 (Intressant för dig också @Yoshman).

Bara vad jag hittade spontant. Kan ha förändrats.

Källa: https://linustechtips.com/main/topic/429461-unreal-engine-4-d...

Visa signatur

Hur många datorer är för många?