Snabbtest: Doom med Vulkan

Permalänk
Skrivet av dunis90:

Nämnvärt är att DOOM stöder "Shader Intrinsics Function" på AMD-korten.

Så vitt jag begriper är det inget som hindrar nvidia att implementera:

  • AMD_shader_ballot

  • AMD_shader_trinary_minmax

  • AMD_shader_explicit_vertex_parameter

Iofs kanske de inte kan matcha det mot en enskild opcode men det borde gå att syntetisera funktionaliteten. De kommer inte åt de där sista procenten av prestanda men det borde rulla.

Permalänk
Skrivet av PalmiNio:

Finner också det märkligt!

Inget test jag har läst på nätet lyckas ett GTX 1060 prestera bättre än RX480 på vulkan i 1440p:

RX480 vinner alla:
http://scr3.golem.de/screenshots/1607/D3D12-Vulkan-Test/thumb620/Direct3D12-Vulkan-Test-04.png

RX480 vinner alla:
http://www.pcgamesn.com/amd/rx-480-vs-gtx-1060-vulkan

RX480 vinner:
http://www.hardocp.com/images/articles/1468921254mrv4f5CHZE_4_3.gif'

RX480 vinner:
http://www.techspot.com/articles-info/1209/bench/Doom_02.png

RX480 vinner:
http://cdn.mos.cms.futurecdn.net/28EvXnog4P5j2vntsKzCfU-650-80.png

RX480 Vinner:
http://i.imgur.com/dZsgapm.png

Man undrar hur SweC lyckas pricka in så att just deras test så faller helt plötsligt RX480 ner i 1440p och dör mot GTX1060?

Underclock vs Superclock?

Du försöker dra slutsatser från ett test med obefintlig reproducerbarhet och (antagligen) betydande varians? Allt för att stödja en konspiratitonsteori? Riktig jäkla ekokammarnivå!

Permalänk
Datavetare
Skrivet av GilbertG:

Hur är det med drivrutinerna egentligen? Är det samma drivrutiner hos Sweclockers som i de övriga testerna? Om det är så att Swec har nyare, kan det vara så att Nvidia-drivurtinerna nu går in och byter ut shaders till såna som har lägre prestandakostnad för Nvidia-korten?

Vilket är specifikt tillåtet och uppmuntrat "by-design" av både HLSL and SPIR-V! Enda anledningen att JIT:ad Java-bytekod i vissa fall är snabbare än kompilerad C/C++ kod är att den förra kan göra en första översättning från bytekod till maskinkod, köra en stund och samla in statistik kring vilken riktigt villkorade hopp tar och sedan använda denna information för att generera om maskinkoden från bytekoden.

Skrivet av CamelCase:

Så vitt jag begriper är det inget som hindrar nvidia att implementera:

  • AMD_shader_ballot

  • AMD_shader_trinary_minmax

  • AMD_shader_explicit_vertex_parameter

Iofs kanske de inte kan matcha det mot en enskild opcode men det borde gå att syntetisera funktionaliteten. De kommer inte åt de där sista procenten av prestanda men det borde rulla.

Det går absolut att funktionellt göra samma sak på Nvidias kort, dock inte alls säkert att det är en bra idé prestandamässigt. Men problemet med "instrincs" ligger inte där.

Det normala för DX och Vulkan är att kompilera alla shaders till ett mellanformat, en bytekod, som är generell för alla GPUer. Det som distribueras är då bytekoden, något som har flera fördelar.

  • räcker att göra en kompilatorimplementation, i OpenGL distribuerades källkoden för shaders och skillnader i parser och tolkning av syntax har varit ett stort problem för OpenGL då det resulterat i olika resultat med olika drivers

  • att distribuera ett mellanformat i stället för maskinkod betyder att man på varje specifikt system kan generera maskinkod som mycket väl kan innehålla instruktioner som enbart finns på den aktuella kretsen, det är HÄR man ska se till att eventuella användbara instruktioner på GCN kommer till användning

  • hela grundtanken med "instrincs" är att helt eller delvis skippa mellanlagret, det som distribueras är då kretsspecifika instruktioner som dels låser det till de kretsar som har instruktionerna och dels hindrar/försvårar möjligheten till re-JIT till en mer optimal maskinkod baserad på statistik från körningar på aktuellt system

Om det nu är så att "shader instrincs functions" behövs så tyder det på att bytekoden för HLSL/SPIR-V har brister som borde ses över.

Som det är nu ligger det ju maskinkodsinstruktioner för GCN. Att emulera detta på en annan GPU är som att köra t.ex. ARM-kod på x86. Visst går det (t.ex. qemu), men man får vara glad om prestanda är en tiondel av att direkt köra motsvarande med x86 kod (då underliggande CPU är x86).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Är helt ok prestanda för 1070 som jag precis inhandlat ! räcker gott åt mig.

Permalänk
Medlem
Skrivet av Denied87:

Jag ser en prestanda-boost i Vulkan upp till 48% som minst 29% enligt de test slingor jag testat i Doom. Dvs från hissen till första blåa dörren att öppna på första utomhus banan.

I openGL ligger jag runt 58 fps, I vulkan ligger jag runt 111 fps.
Där det händer mer(Dvs många explosioner och demoner samtidigt) ligger jag runt 49fps i OpenGL och 82 fps i Vulkan.

Detta då i 1080p. Mina specifikationer finns i signaturen.
Med detta sagt, Jag är nöjd. Däremot märkte jag även att i openGL har jag ibland nån form av lag där en frame fryser. Som ett hack i spelet. I Vulkan är detta helt borta.

Mvh

Detta har även uppmärksammats på andra spel t.ex. i Dota med Nvidia kort så verkar det som spelet flyter på bättre i Vulkan även fast det är lite lägre Fps i Vulkan.

Skrivet av SweRobby:

För mitt GTX 1070 och i7 4790K så mikro-laggar Doom med Vulkan, och jag förstår inte varför. Jag har inte sett att någon annan rapportera samma problem. Det är högre FPS, men det känns ju inte som det med ojämna renderingstider. Någon som har några teorier?

Har du kollat att du inte har något "DPC latency" problem sett många som har haft problem med just gtx 1070, Msi verkar haft en hel del problem med detta, även andra tillverkare har samma problem, verkar vara något problem med micron minnen, på dom korten som tillverkas i kina. Du kan kolla vad du har för minnen i GPU-Z.

Ifall du har micron minnen, kanske du kan byta ut kortet ifall du fortfarande har tid kvar, eller reklamera kortet.

Var problem på även 1080 med "DPC latency", Nvidia har släppt en hotfix för detta men verkar inte som det löst problemet för alla.

Kan läsas mer om detta här: https://www.reddit.com/r/nvidia/comments/4wh8jc/msi_officiall...

Och här: http://www.overclock.net/t/1605618/ongoing-pascal-latency-pro...

OT: Riktigt imponerande prestanda med Fury X, verkar som att kortet äntligen får sträcka på benen.
Vulkan verkar vissa vad korten verkligen kan prestera, hoppas på flera spel med vulkan med bra implementation.

Permalänk
Avstängd

Finner mer utförliga tester genom att titta på andra håll än sweclockers då de har stirrat sig blida på sitt prestanda index med sina metoder. Simpla tester och knappast mångsidiga med många brister... Samtidigt kritiserar Emil sina egna kunder varje tillfälle han får kritik eller sweclockers ifrågasätts.

Permalänk
Skrivet av Yoshman:

Vilket är specifikt tillåtet och uppmuntrat "by-design" av både HLSL and SPIR-V! Enda anledningen att JIT:ad Java-bytekod i vissa fall är snabbare än kompilerad C/C++ kod är att den förra kan göra en första översättning från bytekod till maskinkod, köra en stund och samla in statistik kring vilken riktigt villkorade hopp tar och sedan använda denna information för att generera om maskinkoden från bytekoden.

Det går absolut att funktionellt göra samma sak på Nvidias kort, dock inte alls säkert att det är en bra idé prestandamässigt. Men problemet med "instrincs" ligger inte där.

Det normala för DX och Vulkan är att kompilera alla shaders till ett mellanformat, en bytekod, som är generell för alla GPUer. Det som distribueras är då bytekoden, något som har flera fördelar.

  • räcker att göra en kompilatorimplementation, i OpenGL distribuerades källkoden för shaders och skillnader i parser och tolkning av syntax har varit ett stort problem för OpenGL då det resulterat i olika resultat med olika drivers

  • att distribuera ett mellanformat i stället för maskinkod betyder att man på varje specifikt system kan generera maskinkod som mycket väl kan innehålla instruktioner som enbart finns på den aktuella kretsen, det är HÄR man ska se till att eventuella användbara instruktioner på GCN kommer till användning

  • hela grundtanken med "instrincs" är att helt eller delvis skippa mellanlagret, det som distribueras är då kretsspecifika instruktioner som dels låser det till de kretsar som har instruktionerna och dels hindrar/försvårar möjligheten till re-JIT till en mer optimal maskinkod baserad på statistik från körningar på aktuellt system

Om det nu är så att "shader instrincs functions" behövs så tyder det på att bytekoden för HLSL/SPIR-V har brister som borde ses över.

Som det är nu ligger det ju maskinkodsinstruktioner för GCN. Att emulera detta på en annan GPU är som att köra t.ex. ARM-kod på x86. Visst går det (t.ex. qemu), men man får vara glad om prestanda är en tiondel av att direkt köra motsvarande med x86 kod (då underliggande CPU är x86).

SPIR-V är explicit utökningsbart. Se sektion 3.1.

Vad gäller brister i mellanformatet så tror jag att, iaf vissa, av AMDs utökningar är aktuella för Vulkan 2.0. Ledsen, ingen källa på det, bara ngt som jag noterade i förbifarten nånstans.

Till sist, SPIR är inte bytecode, det är word32code.

Permalänk
Skrivet av Mephiston:

Finner mer utförliga tester genom att titta på andra håll än sweclockers då de har stirrat sig blida på sitt prestanda index med sina metoder. Simpla tester och knappast mångsidiga med många brister... Samtidigt kritiserar Emil sina egna kunder varje tillfälle han får kritik eller sweclockers ifrågasätts.

Jag tycker det framgår att testandet är på kuriosanivå och att metodiken haltar en smula.

Permalänk
Medlem

Siter att jämföra Sweclockers resultat med är tex. PC perspective, Anandtech, Techreport, Guru3d och Hardocp. När Swe clockers benchar överensstämmer med dessa så kan man vara lugn med att resultaten är korrekta. När dom sticker ut kan man spekulera i varför.

Visa signatur

🖥️ AMD Ryzen 3700x, MSI B350 Mortar Arctic, Corsair lpx 3200, Sapphire 6900XT Nitro, Mbpro 15, MacMini.

Permalänk
Medlem

Intressant, 1070 i 4k får ju 6fps mindre i vulkan än i opengl. Någon som har en teori? I alla andra upplösningar har det vunnit fps.

Visa signatur

Fractal Design Define R4 | Asus Z97-P | I5 4690K | Crucial Ballistix 8GB 1600MHz | Gigabyte 970 G1 Gaming | Corsair TX 650W

Permalänk
Medlem
Skrivet av Halloojj:

Intressant, 1070 i 4k får ju 6fps mindre i vulkan än i opengl. Någon som har en teori? I alla andra upplösningar har det vunnit fps.

Relativt ny och oslipad än i jämförelse kanske.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Medlem
Skrivet av PalmiNio:

Fast vi pratar om att med ett kraftigt OC:at GTX1060 från partner så är det fortfarande ca 10% bakom RX480 stock ref i 1440p enligt andra sidor.

Kör man ref mot ref vilket tydligen SweC har gjort då inget annat angivits så är allt mellan 15-30% skillnad till fördel för RX480.

Ändå lyckas just SweC få till att GTX1060 är hela 7% snabbare än RX480. Något som ingen annan site har lyckats med!

Om nu nVidia har släppt en drivrutin som gör ett GTX1060 kort ca 20-30% snabbare på Doom Vulkan så borde det vara stora nyheter. Det konstiga i hela är att i SweC testet så går RX480 från att vara ca 10% snabbare i 1080p till att vara 7% sämre i 1440p, också ett fenomen som är ytterst märkligt och inte observerbart i några andra tester.....

Här har du en översikt. Där skillnaden är minst är det OC partnerkort på GTX1060 sidan, RX480 är ref kort i alla fallen.
https://s13.postimg.org/77s8gtszr/Capture.png

Lite reflänkar

http://www.hardocp.com/article/2016/07/19/nvidia_geforce_gtx_...
http://www.gamersnexus.net/hwreviews/2518-nvidia-gtx-1060-rev...
http://www.gamersnexus.net/hwreviews/2518-nvidia-gtx-1060-rev...
http://www.golem.de/news/geforce-gtx-1060-vs-radeon-rx-480-da...
http://www.techspot.com/review/1209-nvidia-geforce-gtx-1060/p...
http://www.hardwareunboxed.com/nvidia-geforce-gtx-1060-benchm...
http://www.pcgamer.com/geforce-gtx-1060-review/
http://gameaxis.com/reviews/pc-reviews/review-nvidia-geforce-...
http://www.pcgameshardware.de/Nvidia-Geforce-GTX-10606G-Grafi...
http://techgage.com/article/nvidia-geforce-gtx-1060-6gb-graph...

I din graf kan du inte gör ett snitt för alla testerna då det skulle bli det mest rimliga resultatet? ny rad snitt alla test

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av GilbertG:

Hur är det med drivrutinerna egentligen? Är det samma drivrutiner hos Sweclockers som i de övriga testerna? Om det är så att Swec har nyare, kan det vara så att Nvidia-drivurtinerna nu går in och byter ut shaders till såna som har lägre prestandakostnad för Nvidia-korten?

Fast som jag skrev är inte nVidia resultaten konstiga utan RX480 resultaten.

Inget test på nätet får så låg boost mellan OpenGL och Vulkan i 1440p på ett RX480.

Det är heller inte lite skillnad utan signifikant skillnad.

När deltat hos de flesta ligger på 30-40% ökning lyckas SweC bara få det till 9%.

Det märkliga är dock att det som de hävdar är samma test, samma inställning men med 1080p får över 30% boost.

Så man lyckas på något vis döda kortet vid 1440p.

Skickades från m.sweclockers.com

Visa signatur

Speldator: Intel i7 4770k - 16 GB DDR3 - GeForce GTX 1060 EVGA SC MiniITX - Samsung 850 Pro 256GB (OS) - Samsung 840 EVO 500GB (Install) - 3x4TB Seagate (Mix) - Fractal Node 304

Permalänk
Medlem
Skrivet av CamelCase:

Du försöker dra slutsatser från ett test med obefintlig reproducerbarhet och (antagligen) betydande varians? Allt för att stödja en konspiratitonsteori? Riktig jäkla ekokammarnivå!

Nja mer märkligheten i den stora variansen mellan 1080p och 1440p.

När de gjorde Warhammer testet så påstod de sig testat alla mixer av inställningar och flera gånger för att olikt resten av Internet inte funnit något scenario där DX12 var bra....

Normalt är att om man ser avvikande mönster så kollar man på det och om man inte hittar en förklaring så rapporterar man iaf att något avviker.

Skickades från m.sweclockers.com

Visa signatur

Speldator: Intel i7 4770k - 16 GB DDR3 - GeForce GTX 1060 EVGA SC MiniITX - Samsung 850 Pro 256GB (OS) - Samsung 840 EVO 500GB (Install) - 3x4TB Seagate (Mix) - Fractal Node 304

Permalänk
Medlem
Skrivet av sesese:

I din graf kan du inte gör ett snitt för alla testerna då det skulle bli det mest rimliga resultatet? ny rad snitt alla test

Mest rimliga är att RX480 ska få en boost mellan 25-35% när man går från OpenGL till Vulkan på 1440p beroende på AA/AF under Ulra inställningen (vilket alla kör). SweC fick fram 9%

Mest rimligt är också att skillnaden i boosten på 1080p och boosten i 1440p bör vara runt 95% i jämförbar ökning. SweC fick fram 80%

Skickades från m.sweclockers.com

Visa signatur

Speldator: Intel i7 4770k - 16 GB DDR3 - GeForce GTX 1060 EVGA SC MiniITX - Samsung 850 Pro 256GB (OS) - Samsung 840 EVO 500GB (Install) - 3x4TB Seagate (Mix) - Fractal Node 304

Permalänk
Medlem

@blade80: Det ligger nog något i det. Däremot förlorar inte 1080 något på att använda Vulkan. 1060 förlorar 1 fps.

Visa signatur

Fractal Design Define R4 | Asus Z97-P | I5 4690K | Crucial Ballistix 8GB 1600MHz | Gigabyte 970 G1 Gaming | Corsair TX 650W

Permalänk
Medlem
Skrivet av Kenneth:

Att våra siffror är "fel" för att RX 480 är lägre än hos andra är stämmer inte riktigt. Det finns många faktorer som ger andra resultat, t.ex inställningar, testrunda, drivrutiner och övrig hårdvara.

Sen som vi skriver i artikeln så blir det ofta olika siffror per testrunda. Slingan kördes om flera gånger för att säkerhetsställa medelnivån när det blev udda resultat, om andra sidor har gjort samma har jag faktiskt inget aning om.

Det är mycket möjligt att någon form av optimering kan ha hänt för Nvidia-korten eftersom nästintill alla har fått en prestanda ökning jämfört med majoriteten av testen som blev länkade i tråden. Det här är dom siffrorna vi har fått fram i våran testslinga och inställningar, och att påstå att vi klockat ner eller på något sätt försökt att få ner resultaten på RX 480 är helt enkelt fel.

Fast nu verka det ju vara så att ingen säga att 1060s siffrar är fel. Dem verka ju vara i linje med alla andra. Men av någon anledning avviker just erat 480 från alla andra. Så nåt måste ju vara fel om ni som ända sida få avvikande siffror för 480. Eller påstår ni att helt enkelt alla andra måste har fel då eftersom ni säga att ni inte kan har fel?

Visa signatur

GamingRig: Cooler Master NR200P/ASUS ROG STRIX B550-I GAMING/AMD Ryzen 5 5700G/Noctual NH-D12L/Corsair SF750 Platinum/Crucial Ballistix Elite 2x8GB 3600MHz/

Permalänk
Quizmaster Malmö 22

Bra litet test. Kul att veta.

Visa signatur

[Gigabyte EP35-DS4][Intel Core 2 Duo E8400 3.0 Ghz][2x2GB Corsair XMS 2][Gainward GTX 570][Sandisk Extreme II 480GB][Corsair HX 620W][Fractal Design Define XL R4][Acer GD245HQBID]

Permalänk
Medlem

"Sist men inte minst är upplösningen 3 840 x 2 160 pixlar. Resultaten ser betydligt jämnare ut bland majoriteten av korten. Något som sticker ut är Radeon R9 Fury X som tjänar runt 42 procent i prestanda med Vulkan, och R9 390X med 17 procent prestandaökning."

Har jag missat nåt? Vissa mej den ökning...

Visa signatur

My Rig https://classic.prisjakt.nu/list.php?ftg_check=on&exclude_ftg...
Fel av mig! Men sjutton vad snabba ni är på att kommentera vad andra gör och inte gör rätt och fel... :/

Permalänk
Skrivet av dunis90:

Nämnvärt är att DOOM stöder "Shader Intrinsics Function" på AMD-korten.

Som en uppföljning på tidigare svar så kan jag nämna att nvidia är på gång med extensions:

OK, inte lika dramatiskt som shader intrinsics, men det viktiga är att utökningar standardiseras och att arbetet görs publikt. Som jag sagt tidigare - git rules

Permalänk
Medlem
Skrivet av darrenj:

"Sist men inte minst är upplösningen 3 840 x 2 160 pixlar. Resultaten ser betydligt jämnare ut bland majoriteten av korten. Något som sticker ut är Radeon R9 Fury X som tjänar runt 42 procent i prestanda med Vulkan, och R9 390X med 17 procent prestandaökning."

Har jag missat nåt? Vissa mej den ökning...

från 47 till 67 med furyx och 45 till 53 med 390x.

Jag är också lite sisådär på att räkna ut procent så denna är guld att ha som bokmärke:
http://www.percentagecalculator.net/

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem

@ClintBeastwood: Nu förstå jag
jag kollade på ökning mellan olika upplösningar..

tackahhhh

mmmm då undrar jag mer och mer att min inköp av en GTX1080 är värt med tanken på att Vulkan "kan möjligtvisst" blir framtidens gaming arkitektur. Raw Power är kanske inte allt.

Visa signatur

My Rig https://classic.prisjakt.nu/list.php?ftg_check=on&exclude_ftg...
Fel av mig! Men sjutton vad snabba ni är på att kommentera vad andra gör och inte gör rätt och fel... :/

Permalänk
Hjälpsam
Skrivet av darrenj:

@ClintBeastwood: Nu förstå jag
jag kollade på ökning mellan olika upplösningar..

tackahhhh

mmmm då undrar jag mer och mer att min inköp av en GTX1080 är värt med tanken på att Vulkan "kan möjligtvisst" blir framtidens gaming arkitektur. Raw Power är kanske inte allt.

GTX1080 är fortfarande snabbast.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Kenneth:

Sen som vi skriver i artikeln så blir det ofta olika siffror per testrunda. Slingan kördes om flera gånger för att säkerhetsställa medelnivån när det blev udda resultat, om andra sidor har gjort samma har jag faktiskt inget aning om.

Skrivet av PalmiNio:

Inget test på nätet får så låg boost mellan OpenGL och Vulkan i 1440p på ett RX480.
...
Så man lyckas på något vis döda kortet vid 1440p.

Tänkte bara föreslå ett par andra tänkbara felkällor som kanske kan ha drabbat RX 480 och dess något annorlunda värden jämfört med andra sajter.

Att byta upplösning inne i spelet utan att starta om.
Min erfarenhet av att byta upplösningen inne i menyn i Doom utan att starta om är att det kan sabba prestandan. För att vara säker på att undvika den ev prestandaförlusten måste man starta om. Vet inte hur testandet gått till, men eftersom det säkert tar dryga minuten att ändra upplösning och sedan vänta på alla introsekvenser efter omstart, är det ju inte otänkbart att det har varit lockande att hoppa från 1080p till 1440p och sen till 2160p utan omstart. Speciellt i en snabbtest.
Om det då råkar introduceras ett fel vid ett byte, så består det. Då hjälper det inte att köra testslingan flera gånger efter varandra. Man får visserligen samma resultat, och luras därför att tro att det är korrekt. Felet och dess prestandaförlust ligger dock latent kvar i varje körning, tills nästa omstart. Vilket då troligtvis sker med ett nytt kort,

Att testa med demon och inte fullskalespelet.
Jag fick bättre prestande med fullskale-Doom jämfört med demon, subjektivt kanske 10% bättre i hissen i The UAC. Återigen vet jag inte hur testet genomförts, men när Emil pratade om testet i Fredagspanelen pratade han om att hitta en upprepbar sekvens som passade. Det finns en sådan sekvens i början av nivån Advanced Research Complex som är en rälsåkning (ungeför som testslingorna i Far Cry 4 och BF 4). Kanske inte så representativ slinga för spelet, men konsekvent likadan varje gång i knappt en minut. Att nivån The UAC används istället, dvs samma nivå som i demon, kan tala för att det är demon som testats, och inte fullskaliga spelet. Och de kan alltså skilja sig i prestanda.

Fel i Sweclockers egna rutiner/program.
Det har hänt tidigare, prestandan i t ex DX 11 stämde inte överens för GTX 1070 i RotTR mellan DX11 och DX12-sidorna (vilket nu rättats). Fel kan alltså drabba enskilda kort i Sweclockers egen hantering.

Permalänk
Medlem

Jag kan bara köra med ett kort i detta spelet. Får +60bps 4K men vill att 3 kort går i halvfart istället för ett som får jobba i 70-100% (Fury X kort)

Skickades från m.sweclockers.com

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk

Så med Vulkan slipper man Windows 10?
Sketbra!

Permalänk
Medlem
Skrivet av Bernd_P1:

En sak jag fortfarande rynka pannan åt är varför man drar up AA och AF så mycket i högre upplösningar. Är inte meningen med högre upplösningar att man just slippa och har det käka upp resurser.

@ClintBeastwood: samma grundchip men betydligt bättre yield/tillverkning så standard klocken ligga betydligt högre. Tänk typ hur intel dela upp sina cpu:er. Sen har man ochså förbättrad själva PCBn.

Off topic:
AA är inte lika intressant på högre upplösningar, men AF har inte med saken att göra. Enkelt förklarat så styr det texturers skärpa, i huvudsak på avstånd. Så jag anser t.ex att man alltid ska ha 16x. Men i vissa fall oftast konsolportar så är texturerna redan från början så lågupplösta så att man ser skarvarna väldigt tydligt. Då kan det vara för upplevelsen skull bättre att låte det vara suddigare får att få en mer jämn bild över hela skärmen.

En gammal video som visar det hela. Försökte hitta den från q3 men ja... Detta fick duga.
https://www.youtube.com/watch?v=td0ntyJsZx4

On topic:
Har raporteras om att texturer laddas in sent på nvidia kort. Osäker på om det stämmer. Jag märker inget av det och jag har bara testat vulkan, samt att spelet inte var nytt då jag började spela.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Datavetare
Skrivet av CamelCase:

SPIR-V är explicit utökningsbart. Se sektion 3.1.

Vad gäller brister i mellanformatet så tror jag att, iaf vissa, av AMDs utökningar är aktuella för Vulkan 2.0. Ledsen, ingen källa på det, bara ngt som jag noterade i förbifarten nånstans.

Till sist, SPIR är inte bytecode, det är word32code.

Blir lite nekropost på denna, har haft _väldigt_ mycket annat att göra sedan i fredags.

Kikar man i specifikationen så handlar det faktiskt om variabel storlek på instruktionerna, få är faktiskt kortare än 96 bitar (3 st 32-bitars ord)!

SPIR-V har bara en standardiserat sätt att stoppa in icke-standardiserade instruktioner. Det är väldigt snarlikt hur x86 idag använder VEX-kodning för att lägga till nya saker till SSE/AVX. Även om Sandy Bridge begriper sig på VEX så kan den ändå inte köra AVX2 instruktioner då den inte har någon aning om vad de nya opkoderna ska göra. Däremot kan en äldre CPU ändå se vilka register som används då det är standardiserat i VEX.

SPIR-V fungerar i stort sätt exakt lika, även för tillägg kan man hoppa runt mellan instruktionerna då dess storlek står i den standardiserade delen. Men precis som med VEX betyder opkoderna ingenting för en implementation som "bara" implementerar Vulkan 1.0, något som står klart och tydligt i just sektion 3.1

"Extended instruction sets are specified in separate documents from the core specification."

"These numbers are part of the specification of the extended instructions, and must be shared by at least the front end creating SPIR-V and the back-end lowering it to a target instruction set."

Det sista säger i princip: man måste ha kontroll på både den ände som genererar koden och den som konsumerar den, SPIR-V är bara en bärare av information som endast har någon vettig mening för ett specifikt kontext. I fallet shader instrincts functions för GCN är det bara relevant GCN back-end.

Rent teoretisk kan naturligtvis Nvidia göra något motsvarande, men t.ex. "baliot" är ju något som kan användas i specifika fall där man normalt skulle behöva atomära instruktioner. Det finns dock ingen 1:1 mappning mellan instruktionen och vad man ska göra om den inte finns, finns inte ens någon rimligt väg att ersätta instruktionen då det skulle bli betydligt långsammare än att köra den generella vägen.

D.v.s. shader instrincts function låser helt fast kod som använder det i en specifik GPU eller familj av GPUer.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer