Premiär! Fyndchans i SweClockers Månadens Drop

Snabbtest: 3DMark Mesh Shaders

Permalänk
Melding Plague

Snabbtest: 3DMark Mesh Shaders

DirectX 12 Ultimate bjöd på fyra stora förändringar där två redan implementerats i spel. Idag testar vi en tredje.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem
Permalänk
Medlem

Om man läser tråden som finns länkad, så får jag tanken att mesh shader alltså bara ritar upp det på skärmen som syns?

Det var väl exakt det PowerVR grafikchipet i Sega Dreamcast gjorde också?
Den kollade väl först vilka polygoner som skulle synas på skärmen, och renderade sedan enbart dessa om jag inte minns helt fel

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem
Skrivet av CubaCola:

Om man läser tråden som finns länkad, så får jag tanken att mesh shader alltså bara ritar upp det på skärmen som syns?

Det var väl exakt det PowerVR grafikchipet i Sega Dreamcast gjorde också?
Den kollade väl först vilka polygoner som skulle synas på skärmen, och renderade sedan enbart dessa om jag inte minns helt fel

Dags för Sega att lägga in en stämning hör jag

Visa signatur

Modermodem från ONOFF och bildskärmsutrustning från Electrolux. US Robotics 28.8K telefonuppringd internetförbindelse. Har en förkärlek för tysk tjejpop.

Permalänk

Är nöjd att jag fick över 70 fps med mitt 2070Super i det vanliga testet.
Liknande hundratal som 2080 i prestandaökning i läge on.
Har stora förhoppningar om denna teknik.

Permalänk
Medlem

Shit pomfritt!

Permalänk
Medlem
Skrivet av HappySatan:

Dags för Sega att lägga in en stämning hör jag

Hehe absolut
Fast PowerVR var ju tilebased rendering, vilket nog inte moderna grafikkort har
Så olika lösningar på samma problem isåfall

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem

Verkar som både Nvidia's och AMD's drivrutiner inte är särskilt väl optimerade för testet ännu med tanke på att 2080 super presterar bättre än denna generationens kort med rendering utan mesh shaders. XD

Visa signatur

| Corsair Obsidian 1000D | AMD Ryzen 9 5950x 3.4 GHz(5 GHz boost) med Corsair iCue H170i Elite Capellix | Asus ROG Crosshair VIII Dark Hero | G.Skill Trident Z neo, 2x16GB 3600MHz C16 | ROG Strix LC GeForce 3090 Ti 24GB | 1x Seagate FireCuda 520 1TB, 1x Samsung 850 EVO 250GB, 1x Samsung 970 EVO 1TB, 2x 1TB HDD, 1x Seagate Ironwolf 16TB HDD | Corsair AX860i | ASUS PG279Q & ASUS XG27AQM|

Permalänk
Medlem
Skrivet av CubaCola:

Hehe absolut
Fast PowerVR var ju tilebased rendering, vilket nog inte moderna grafikkort har
Så olika lösningar på samma problem isåfall

Sedan Nvidia Maxwell har de det (Nvidia själva bekräftat). Ganska säker på att AMD har något motsvarande också.

Permalänk
Hjälpsam

Tror att det var något åt det här hållet, som Primitive Shaders var tänkt att bli, men det blev en ofärdig produkt.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av CubaCola:

Om man läser tråden som finns länkad, så får jag tanken att mesh shader alltså bara ritar upp det på skärmen som syns?

Det var väl exakt det PowerVR grafikchipet i Sega Dreamcast gjorde också?
Den kollade väl först vilka polygoner som skulle synas på skärmen, och renderade sedan enbart dessa om jag inte minns helt fel

Jag lärde mig tekniken i högstadiet när vi satt o pula i assembler om kvällarna o gjorde demos. Detta var 93-94. Så tror inte sega uppfann detta

Visa signatur

Processor: Motorola 68000 | Klockfrekvens: 7,09 Mhz (PAL) | Minne: 256 kB ROM / 512 kB RAM | Bussbredd: 24 bit | Joystick: Tac2 | Operativsystem: Amiga OS 1.3

Permalänk
Medlem
Skrivet av scara:

Sedan Nvidia Maxwell har de det (Nvidia själva bekräftat). Ganska säker på att AMD har något motsvarande också.

Ah, där ser man

Skrivet av talonmas:

Jag lärde mig tekniken i högstadiet när vi satt o pula i assembler om kvällarna o gjorde demos. Detta var 93-94. Så tror inte sega uppfann detta

Nej, det stämmer nog. Jag sa ju faktiskt inte att Sega uppfann det, mindes bara att när det var konsolkrig när man var ung, så var det många som tryckte på att Sega renderade bara de saker som syntes på skärmen
Lite lustigt bara att man tappat denna teknik dock, om det nu är det mesh shader innebär.

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Datavetare

Så Mesh Shaders ger lite mindre effekt jämfört med att gå från DX11 till DX12/Vulkan?

3DMarks API Overhead test visade ju en bra bit över 1000 % förbättring i fler fall.

Klicka för mer information
Visa mer

Det lite snarstuckna påståendet avklarat: tror ändå Mesh Shaders kan ha en större påverkan på slutresultatet än vad DX11 till DX12/Vulkan någonsin kommer få.

Initialt kommer nog effekten vara begränsad, för dagens GPUer är hårdoptimerade efter en grundläggande modell som funnits i ungefär två decennier. HW-mässigt är dagens GPUer en kombination av fullt programmera steg kopplade med vissa fix-funktionssteg. Fix-funktionsstegen har delvis blivit en flaskhals, men nedsidan av mesh-shaders är att dessa inte kan använda mycket av dessa hårdoptimerade fix-funktionssteg.

Har också lite svårt att se hur GPUer som använder sig av "Tile Based Deferred Rendering" (TBDR) ska kunna använda Mesh-shaders, det som gör TBDR till en så bra lösning för mobila system (TBDR används av Apples GPU, Arm Mali och Qualcomm Andreno) kräver en hård separation av steg upp till rastrering (upp till, men inte inkluderat screen space) följt av sortering av all geometri i screen space så man till 100 % kan rendera saker tile-för-tile.

Nvidia, AMD och även Intel använder sig av "Tiled based caching", vilket inte är samma samma som TBDR. Det råkar bli rätt samma resultat om man har väldigt enkla scener, men det skiljer rejält i "verkliga" fall ställt mot TBDR.

TBDR kräver att man rastrerar tile-för-tile, finns inte bandbredd nog samt designen är hårdoptimerad för att göra på detta sätt m.h.a. on-chip minne för Z-buffer och liknande. Det PC GPUer gör är en ren optimering, de är fortfarande IFR (Immediate Forward Rendering) där optimeringen är vettig då den ökar hit-rate för ROP-cachen. Krävs fortfarande brutal bandbredd då det inte handlar om "äkta" TBDR.

DX12 stödjer inte ens GPUer som är äkta TBDR. Den stora skillnaden mellan Mantle och vad som blev Vulkan 1.0 är att Vulkan stödjer TBDR, man lade specifik till stöd för det så det blev relevant för Android.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Varför är ökningen så enorm på AMDs kort? Typ dubbla förbättringen mot Nvidia?

Visa signatur

Intel i9-12900K | Asus STRIX Z690-I | 32 GB DDR5-6400 CL30 | AMD Radeon RX 7900 XTX | WD Black SN850 1 TB
Asus ROG Loki SFX-L 750W | SSUPD Meshlicious | Arctic Cooling Freezer II 280 | Alienware AW3423DWF

Permalänk
Medlem

Bara att klistra på vilket spel som helst :).
Tror nog att det finns en anledning att teatet ser ut som det gör.

Permalänk
Medlem
Skrivet av superapan:

Varför är ökningen så enorm på AMDs kort? Typ dubbla förbättringen mot Nvidia?

Varför är de hälften så snabbt utan? Den procentuella ökning tyder ju mer på underpresterande problem än en fantastisk ökning.

Visa signatur

CPU: i7- 13700KF + Corsair 115i Pro || GPU: 2080 Super FE
MoBo: Gigabyte Gaming X AX Z790 || Ram 32GB G.Skill Trident Z 6600mhz
Chassi: Corsair Obsidian 500D PSU: Corsair RMX 850
Skärm 1: AGON AG271QG 1440p 165hz Skärm 2: LG C2

Permalänk
Moderator
Testpilot
Skrivet av CubaCola:

Om man läser tråden som finns länkad, så får jag tanken att mesh shader alltså bara ritar upp det på skärmen som syns?

Det var väl exakt det PowerVR grafikchipet i Sega Dreamcast gjorde också?
Den kollade väl först vilka polygoner som skulle synas på skärmen, och renderade sedan enbart dessa om jag inte minns helt fel

Först att implementera det så att det adopteras på bred front vinner.

Återstår att se här med DX12 har ju en bra spridning iaf.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av CubaCola:

Ah, där ser man

Nej, det stämmer nog. Jag sa ju faktiskt inte att Sega uppfann det, mindes bara att när det var konsolkrig när man var ung, så var det många som tryckte på att Sega renderade bara de saker som syntes på skärmen
Lite lustigt bara att man tappat denna teknik dock, om det nu är det mesh shader innebär.

Tappat den? De flesta 3D spel genom tiderna har väl använt nån form av culling och de flesta grafikkort sen typ Geforce 256 har haft nån typ av inbyggd funktion för det... Mesh shaders är bara senaste tekniken.

Permalänk
Inaktiv
Skrivet av CubaCola:

Om man läser tråden som finns länkad, så får jag tanken att mesh shader alltså bara ritar upp det på skärmen som syns?

Det var väl exakt det PowerVR grafikchipet i Sega Dreamcast gjorde också?
Den kollade väl först vilka polygoner som skulle synas på skärmen, och renderade sedan enbart dessa om jag inte minns helt fel

Mmmm! Blev att läsa lite om gamla Kyro II: https://www.anandtech.com/show/735
Nästan precis 20 år sedan. Väldigt intressant krets vid tidpunkten.

Permalänk
Medlem
Skrivet av anon5930:

Mmmm! Blev att läsa lite om gamla Kyro II: https://www.anandtech.com/show/735
Nästan precis 20 år sedan. Väldigt intressant krets vid tidpunkten.

Var en stolt ägare då jag haft is i magen och köpte detta ist för GeForce 2 Mx som var populärt då om jag inte missminner mig. Mestadels samma prestanda till samma pris men ibland också uppe och slogs med GeForce 2 GTS.. men jag kan minnas fel, mycket för pengarna var det iaf..

Edit: Ah, skalade bra med upplösning vilket jag uppskattade på min världens minsta tjocka 19" Hyundai? Q910...

Visa signatur

🛜🫀: HP ProDesk 400 G3, i5 6500, 8GB DDR4, Intel X520-DA2
🐳🐧: AMD R5 3600 | Google Coral.ai | ASRock X570D4U-2L2T | Silverstone CS381 | 80GB DDR4 | 8 HDD BTRFS RAID1
⌨️🎮: R9 3900X | RTX 2080 LC | Acer XF270HUA | 96GB @ 3200 | MSI X570 MPG G EDGE WIFI | CORSAIR C70
🎞🎶: LG OLED55C8 | Epson TW3200 | Onkyo TX-NR646 | Infinity Reference 61/51 mk2 | Shield TV V2 | minhembio.com

Permalänk
Medlem
Skrivet av Vash:

Varför är de hälften så snabbt utan? Den procentuella ökning tyder ju mer på underpresterande problem än en fantastisk ökning.

Resultatet utan verkar konstigt, särskilt som förra generationens Nvidia är snabbare än den senare.

Min fråga känns inte besvarad, men jag kan bara be om ursäkt då jag märker att du tog illa upp av ett benchmarkmysterium. Jag lovar, jag gillar Nvidia precis lika mycket som AMD.

Visa signatur

Intel i9-12900K | Asus STRIX Z690-I | 32 GB DDR5-6400 CL30 | AMD Radeon RX 7900 XTX | WD Black SN850 1 TB
Asus ROG Loki SFX-L 750W | SSUPD Meshlicious | Arctic Cooling Freezer II 280 | Alienware AW3423DWF

Permalänk
Medlem
Skrivet av superapan:

Resultatet utan verkar konstigt, särskilt som förra generationens Nvidia är snabbare än den senare.

Min fråga känns inte besvarad, men jag kan bara be om ursäkt då jag märker att du tog illa upp av ett benchmarkmysterium. Jag lovar, jag gillar Nvidia precis lika mycket som AMD.

Alla tre korten presterar som förväntat med mesh shaders aktiverat.
Men 6800 XT och 3080 får väldigt låga resultat med funktionen av aktiverad, därför tror jag att den procentuella ökningen oavsett om vi pratar AMD eller Nvidia är mindre relevant. Det var poängen med mitt inlägg, var kanske otydlig.

Visa signatur

CPU: i7- 13700KF + Corsair 115i Pro || GPU: 2080 Super FE
MoBo: Gigabyte Gaming X AX Z790 || Ram 32GB G.Skill Trident Z 6600mhz
Chassi: Corsair Obsidian 500D PSU: Corsair RMX 850
Skärm 1: AGON AG271QG 1440p 165hz Skärm 2: LG C2

Permalänk
Medlem
Skrivet av superapan:

Varför är ökningen så enorm på AMDs kort? Typ dubbla förbättringen mot Nvidia?

Min gissning är AMDs kassa minnesbandbrädd som gör att de faskar som vanligt i testet utan och inte med.

Permalänk
Medlem
Skrivet av superapan:

Varför är ökningen så enorm på AMDs kort? Typ dubbla förbättringen mot Nvidia?

Nvidia Geforce RTX 3080 (10 GB) :68 FPS-593 FPS (+872%) +525fps

AMD Radeon RX 6800 XT (16 GB) :31 FPS-557 FPS (+1797%) +526fps

det skiljer alltså 1fps i ökning mellan korten .

Permalänk
Medlem
Skrivet av hyperbol:

Nvidia Geforce RTX 3080 (10 GB) :68 FPS-593 FPS (+872%) +525fps

AMD Radeon RX 6800 XT (16 GB) :31 FPS-557 FPS (+1797%) +526fps

det skiljer alltså 1fps i ökning mellan korten .

Jag tror han syftade på den procentuella förbättringen ;).

Permalänk
Medlem

Funderar på varför jag inte kan köra detta testet, senaste drivrutinerna installerade för GPU, har testet tillgängligt men 3DMark säger att jag inte har ett kort som stödjer detta testet.

Någon som kanske sitter på en lösning?

Visa signatur

Har numera en Laptop från gigabyte.

Permalänk
Medlem

Undrar vad den här tekniken kommer att göra när det gäller konsoler. Om inte Sony har någon motsvarande teknik, så kan det bli svettigt mot Microsoft. För mig veterligen har inte Sony sagt något om shadee teknik

Visa signatur

Hårdvaru och mjukvaru intresserad

Permalänk
Medlem
Skrivet av Hcz:

Min gissning är AMDs kassa minnesbandbrädd som gör att de faskar som vanligt i testet utan och inte med.

Troligtvist inte, eftersom RTX 2070 Super och 2080 Super har precis samma typ av minnen och minnesbandbredd och presterar bättre utan Mesh Shaders, än ett RTX 3080.

Visa signatur

| Corsair Obsidian 1000D | AMD Ryzen 9 5950x 3.4 GHz(5 GHz boost) med Corsair iCue H170i Elite Capellix | Asus ROG Crosshair VIII Dark Hero | G.Skill Trident Z neo, 2x16GB 3600MHz C16 | ROG Strix LC GeForce 3090 Ti 24GB | 1x Seagate FireCuda 520 1TB, 1x Samsung 850 EVO 250GB, 1x Samsung 970 EVO 1TB, 2x 1TB HDD, 1x Seagate Ironwolf 16TB HDD | Corsair AX860i | ASUS PG279Q & ASUS XG27AQM|

Permalänk
Benchmaskin 🍞
Skrivet av superapan:

Resultatet utan verkar konstigt, särskilt som förra generationens Nvidia är snabbare än den senare.

Min fråga känns inte besvarad, men jag kan bara be om ursäkt då jag märker att du tog illa upp av ett benchmarkmysterium. Jag lovar, jag gillar Nvidia precis lika mycket som AMD.

Tycker också det ser konstigt ut och kan inte riktigt svara varför heller. Testade om flera gånger för att vara säker på att det faktiskt stämmer.

Permalänk
Medlem

Mesh Shaders off
35.45 FPS
Mesh Shaders on
545.50 FPS
Difference
1438.7 %
GPU
AMD Radeon RX 6900 XT