HDR-läge sänker grafikprestanda markant

Permalänk
Melding Plague

HDR-läge sänker grafikprestanda markant

Prestandatester visar att HDR-visning kan sänka grafikprestanda så mycket som tio procent, och ser ut att drabba Nvidia hårdare än AMD.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Hjälpsam

Tycker även att 10% är högst acceptabelt, görs det på rätt sätt, blir det riktigt snyggt.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Kan iof för lite inom detta för att veta om detta är en rimlig gissning eller inte, men kan det vara så enkelt att det har med minnesbandbredden att göra? Borde inte 10bit-färgdjup göra skillnad där?

Permalänk
Medlem

Läste om detta häromdagen och någon användare hade då kommenterat

"The performance loss is likely due to the way NVIDIA converts RGB to reduced chroma YCbCr 4:2:2 in HDR (we discussed that previously here) which was used for HDR testing. If they used 4:4:4 or RGB, the performance would be the same as SDR. Considering GSYNC Ultra HD monitors bog down to 4:2:2, this looks the be the most plausible explanation."

Vilket inte är ett realistiskt scenario, enligt samma användare.

Visa signatur

i5 750 @ 3.9 GHz | NH-D14 | P7P55D |GTX 960 | Vulcan 8GB | Seagate 600 480 GB | Newton 650w | P280 | Dell U2515H

Permalänk
Inaktiv

Smakar det så kostar det...

...vill du maxa kvaliteten är det bara o bita i det sura äpplet o förboka ett 1180 Ti så är allt biff

Permalänk
Medlem

Jag märker en skillnad även i spel som ej stödjer HDR när jag har aktiverat HDR i Windows 10, att dom blir mindre "mjuka" än om HDR är avstängt i Windows 10.

Jag hade önskat kunna använda HDR i Windows 10, men det är för buggigt i dagsläget. I dom få spel som stödjer det aktiveras det automatiskt, ex. Far Cry 5.

Jag vill påstå att HDR är en stor förändring, tittar jag på videos på ex. YT så är det smärtsamt när jag inser hur bra bilden "kan vara", men ej är, eftersom det är avstängt i Windows.

Mvh

Visa signatur

Asus ROG Strix B650E-F - AMD Ryzen 7 7800X3D - 32GB DDR5 - Galax RTX 4090 Hall Of Fame OC Lab - Corsair MP700 - WD Black SN850 - WD Black SN850X - Samsung QVO 870 - WD Black HDD - Noctua NH-U12A Chromax - Fractal Design Define 7 - Seasonic Prime Ultra Gold 1000W - Alienware AW3423DWF QD-OLED

Permalänk
Avstängd

förvånar mig inte att Nvidia tappar mer prestanda när det kommer till HDR. 1080 kretsen är nog inte gjord för att hantera det. Skulle vara intressant o se hur ett 1080Ti klarar sig.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem
Skrivet av sKRUVARN:

Kan iof för lite inom detta för att veta om detta är en rimlig gissning eller inte, men kan det vara så enkelt att det har med minnesbandbredden att göra? Borde inte 10bit-färgdjup göra skillnad där?

Rättar mig själv, 8bit sRGB frame-buffer, även i HDR, så borde inte vara det. Enligt nvidias rekommendationer är fortfarande rendera i SDR http://on-demand.gputechconf.com/gtc/2017/presentation/s7394-...

Skrivet av Rydisen:

Läste om detta häromdagen och någon användare hade då kommenterat

"The performance loss is likely due to the way NVIDIA converts RGB to reduced chroma YCbCr 4:2:2 in HDR (we discussed that previously here) which was used for HDR testing. If they used 4:4:4 or RGB, the performance would be the same as SDR. Considering GSYNC Ultra HD monitors bog down to 4:2:2, this looks the be the most plausible explanation."

Vilket inte är ett realistiskt scenario, enligt samma användare.

Njae, skulle ju lika gärna kunna vända på det å säga att isf borde man även tappa i SDR med chroma subsampling. Det kan dock mycket väl vara något i pipelinen innan det (det ska ju konverteras till HDR (tonemapping, LUT etc)).

"HDR" (10bit, rec2020, PQ EOTF) är inget RGB-format, så YCbCr lär du ha som output oavsett.

Skrivet av _Merc_:

förvånar mig inte att Nvidia tappar mer prestanda när det kommer till HDR. 1080 kretsen är nog inte gjord för att hantera det. Skulle vara intressant o se hur ett 1080Ti klarar sig.

Vad menar du med det? Vad är det på kretsnivå som krävs för detta och varför skulle gp102 klara sig bättre?

Permalänk
Relik 📜
Skrivet av Rydisen:

Läste om detta häromdagen och någon användare hade då kommenterat

"The performance loss is likely due to the way NVIDIA converts RGB to reduced chroma YCbCr 4:2:2 in HDR (we discussed that previously here) which was used for HDR testing. If they used 4:4:4 or RGB, the performance would be the same as SDR. Considering GSYNC Ultra HD monitors bog down to 4:2:2, this looks the be the most plausible explanation."

Vilket inte är ett realistiskt scenario, enligt samma användare.

Hm, menar användaren att 4:2:2 inte är realistiskt? Det är väl enda sättet att få ut HDR vid 4K menar jag, bandbredden räcker inte för att rulla 4:4:4 eller RGB med 10(+) bitar.

Skickades från m.sweclockers.com

Visa signatur

För övrigt anser jag att Karthago bör förstöras.
▪ Nöje #1 -> i5-11400F - B560M-ITX/ac - RTX 3070 - 16 GB DDR4
▪ Nöje #2 -> R5 5600 - Prime B450-Plus - RX 6750 XT - 16 GB DDR4
▪ Mobilt -> HP Pavilion Aero - R5 5625U - 16 GB DDR4
▪ Konsol -> Steam Deck, Xbox Series S

Permalänk
Medlem

Skaffade en 4k skärm för några månader sedan men är inte HDR. Finns alldeles för många olika standarder och svårt att få grepp om hur stor skillnad det egentligen är. Högre upplösning är lätt att förstå att det ser bättre ut och fungerar i de flesta spel. Körde t.ex. Tomb Raider Underworld från 2008 i 4k. Såg förvånansvärt bra ut.

Skickades från m.sweclockers.com

Visa signatur

Asus B650 TUF, Ryzen 7600X, 32GB 6000mhz DDR5, Corsair RM1000X, Powercolor 6900XT Red Devil Ultimate, 360mm Corsair AIO, MSI Velox 100P Airflow. Kingston KC3000 M.2.

Permalänk
Medlem
Skrivet av dagas:

Skaffade en 4k skärm för några månader sedan men är inte HDR. Finns alldeles för många olika standarder och svårt att få grepp om hur stor skillnad det egentligen är. Högre upplösning är lätt att förstå att det ser bättre ut och fungerar i de flesta spel. Körde t.ex. Tomb Raider Underworld från 2008 i 4k. Såg förvånansvärt bra ut.

Skickades från m.sweclockers.com

För många standarder? Alla kör HDR10 och övriga 2 standarder (Dolby Vision och HLG) är i sammanhanget att betrakta som överkurs.

Ang skillnader så beror de överlägset mest på displayen som sådan. Bra HDR är kostsamt att implementera.

Permalänk
Medlem

Sjukt intressant och otippat, jag kan ungefär ingenting om detta men väntar med spänning på att anledningen uppdagas.

Skickades från m.sweclockers.com

Permalänk
Medlem

Är det bara jag som reagerar på Vega resultaten? Hade för mig att 1080 GTX var något snabbare än vega64. SDR då alltså

Skickades från m.sweclockers.com

Permalänk
Medlem

@theailer: du hadde fel. Vega bruka för det mesta vara jämnt med 1080 om inte spelet är extremet gimpat av nvidia.
AMD saknar bara en motsats mot 1080 ti. Detta ignorera naturligen priser men detta är pga priserna är fortfarande över MSRP pga av mining. Tillverkerna är snabba med att höja priser men segt med att sänka.

Visa signatur

GamingRig: Cooler Master NR200P/ASUS ROG STRIX B550-I GAMING/AMD Ryzen 5 5700G/Noctual NH-D12L/Corsair SF750 Platinum/Crucial Ballistix Elite 2x8GB 3600MHz/

Permalänk
Medlem
Skrivet av emilakered:

Hm, menar användaren att 4:2:2 inte är realistiskt? Det är väl enda sättet att få ut HDR vid 4K menar jag, bandbredden räcker inte för att rulla 4:4:4 eller RGB med 10(+) bitar.

Skickades från m.sweclockers.com

Ja jag kan iaf inte få igång RGB 10 bitar i 60Hz på min oled tv.

Visa signatur

Corsair Obsidian 1000D* Corsair AX1600i* Asus Z790 Prime-A* Intel 13900K* 32GB G-Skill DDR5 7600Mhz/36* Asus RTX 4090* Corsair MP600 1TB* Samsung 980 Pro 1TB

Permalänk
Hjälpsam
Skrivet av theailer:

Är det bara jag som reagerar på Vega resultaten? Hade för mig att 1080 GTX var något snabbare än vega64. SDR då alltså

Skickades från m.sweclockers.com

Nope, de går ganska jämnt.

https://www.sweclockers.com/artikel/18402-sweclockers-prestan...

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Känns ju som att världen inte är redo för 10-bitar på datorn.
Just nu verkar det som att allt HDR är mera "HDR-Ready" stämplat

Permalänk
Avstängd

Om nu HDR bara fixade den usla svärtan.

Visa signatur

7800x3d, 64GB 6000cl30, Gigabyte X670 Gaming X AX (F9d) 12TB m.2/nvme, 8TB SSD, WD 2x12TB 5400rpm, XFX 7900xt, SoundBlasterX AE-5+, HP X34", Fractal Design Define 7, Corsair HX750, Topping MX3s, Ino Audio piMx, Dan Clark Audio Aeon 2 closed..
LG B1 65", Topping e70, Topping pa5 II plus, Guru Audio Junior+ (primärt) / Canton GLE 90, Nintendo Switch OLED, Pico 4 VR

Permalänk
Medlem

Känns som att HDR till datorskärmar kommer vara minst 2-3 år till innan det börjar bli vanligt för average gamers. Minst.

Så hur mycket dagens kort droppar i prestanda tycker jag inte är sååå aktuellt.

Permalänk
Medlem
Skrivet av sKRUVARN:

Rättar mig själv, 8bit sRGB frame-buffer, även i HDR, så borde inte vara det. Enligt nvidias rekommendationer är fortfarande rendera i SDR http://on-demand.gputechconf.com/gtc/2017/presentation/s7394-...

Är väl ingen direkt mening att använda 8 bit sRGB om HDR10 (vilket är i stort sett alla spel som har HDR) kräver minst 10 bitar, vilket i praktiken använder half floats (16 bitar) innan det konverteras till HDR10, inte minst för att det redan stödja och för att det ger headroom för filter utan att förstöra grafiken.

Citat:

"HDR" (10bit, rec2020, PQ EOTF) är inget RGB-format, så YCbCr lär du ha som output oavsett.
Vad menar du med det? Vad är det på kretsnivå som krävs för detta och varför skulle gp102 klara sig bättre?

Skulle mest troligt tro ren brute force, mer beräkningskraft för shaders där AMD historiskt sett har varit bättre än Nvidia för högre upplösningar/tyngre effekter. För geometri är Nvidias kort dock bättre per TFLOP än motsvarande AMD.

Visa signatur

"Oh glorious cheeseburger… we bow to thee. The secrets of the universe are between the buns..."
"All my farts come straight from hell, you're already dead if you notice a smell"

Permalänk
Hjälpsam
Skrivet av Lordsqueak:

Känns ju som att världen inte är redo för 10-bitar på datorn.
Just nu verkar det som att allt HDR är mera "HDR-Ready" stämplat

Min värld är det.
Har haft 10 bitars färgdjup sedan länge, AMD A8-7600, A10-7850, R9 290, RX Vega 64 och har nu beställt en HDR monitor.
Skulle inte förvåna om mitt gamla HD6950 också hade 10 bitars färgdjup.

Tycker även att en prestandaförlust på 10% inte är så farligt, skall man skita i AF och AA också?

edit Att AMD är lite bättre än Nvidia på HDR är inget att hänga upp sig på, Nvidia är bättre på annat!
Ibland får man, ibland får man ge och 10% år inget att hänga upp sig på.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Hepp där ser man. Har själv ett vega64 men hade intrycket att det för det mesta var långsammare än 1080 korten. Då blev jag lite gladare bara så där 😁

Skickades från m.sweclockers.com

Permalänk
Avstängd

@Ratatosk: Det här verkar dock vara en Windows eller driver-grej mer än något annat (Vilket inte hade varit förvånande med tanke på hur katastrofalt dåligt stödet är på operativsystemet). I alla fall om man får tro utvecklare och/eller Nvidia. Nvidia (och AMD) renderar nämligen allting i färgdjupen som krävs för HDR utan prestandaförlust.

Citat:

Nvidia tells us that it’s relatively simple, since most games already render in FP16 (a floating point HDR rendering calculation) and tonemap back down to standard dynamic range. Internally, games are already rendering in HDR, basically using 64 bits per pixel (16-bit floating point for RGB plus alpha) and then mapping that to the 32 bits per pixel (8-bit integer RGB plus alpha) output of most current displays. So as you sometimes hear from particularly candid console game devs, implementing HDR is more a matter of not downscaling the dynamic range, rather than specifically working upwards.

https://www.pcgamer.com/is-hdr-worth-the-premium-for-pc-gamin...

Sevärd video när DF testar Far Cry 5 med HDR utan större skillnad i FPS (0.5% prestandaskillnad vid 30 FPS med ett Titan X Pascal).

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Hjälpsam

@SeF.Typh00n: Mycket möjligt och om så inte är fallet, så är 10% inget att hänga upp sig på.

edit Tysken får liknande siffror för Far Cry, så det verkar stämma.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Bernd_P1:

@theailer: du hadde fel. Vega bruka för det mesta vara jämnt med 1080 om inte spelet är extremet gimpat av nvidia.
AMD saknar bara en motsats mot 1080 ti. Detta ignorera naturligen priser men detta är pga priserna är fortfarande över MSRP pga av mining. Tillverkerna är snabba med att höja priser men segt med att sänka.

Kan du inte berätta mer om det här?

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem
Skrivet av ClintBeastwood:

Kan du inte berätta mer om det här?

Skrivet av Teddis:

"Rawr rawr konspirationsteorier om gameworks rawr rawr länk till AdoredTV"

Visa signatur

Dator: ASUS Prime 470x PRO - AMD 5800X3D - MSI RTX 2070 ARMOR OC - EVGA SuperNova G3 650W - Fractal Design Define R5 - Noctua NH-D15 - ASUS Xonar DGX. Kringutrustning: Corsair M65 Pro - Qpad MK-90 - Sennheiser 350 SE. ASUS MG279Q.

Permalänk
Medlem

Du kanske är intesserad av att berätta vilka spel som är så extemt gimpade av Nvidia? Är det Hitman ni tänker på?

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Hjälpsam
Skrivet av ClintBeastwood:

Du kanske är intesserad av att berätta vilka spel som är så extemt gimpade av Nvidia? Är det Hitman ni tänker på?

Fallout 4 är ganska gimpat.
RoTR var det när det släpptes, men nu har studion fixat till det, så de ligger rätt lika där.
Witcher 3 hairworks.

edit Varför nämner du Hitman? där går GTX1080 och Vega 64 ganska jämnt, vilket stämmer bra med andra tester.
http://www.guru3d.com/articles-pages/nvidia-geforce-gtx-1070-...

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Intressant! Om det håller i sig kan det ju bli en knuff för AMDs försäljning.

Visa signatur

Ny dator: Acer Predator Orion 5000 (RTX 3080)
[ I7 3770K @ 4.6Ghz | Asus 980 Ti 6GB | 16GB | Asus P8Z77-V PRO | Samsung 830 128GB | Corsair H100 | Cooler Master HAF X | Corsair AX 850W | Samsung DVD±RW ] [ Sony AF9 65" | Sony WF-1000XM3 | HTC Vive | Huawei P40 Pro | PS4 Pro | PS3 Slim | PS2 chippad | PS Vita | DS Lite | SNES Mini ]

Permalänk
Medlem
Skrivet av sKRUVARN:

"HDR" (10bit, rec2020, PQ EOTF) är inget RGB-format, så YCbCr lär du ha som output oavsett.

Från Wikipedia:

"Rec. 2020 allows for RGB and luma-chroma signal formats with 4:4:4 full-resolution sampling and luma-chroma signal formats with 4:2:2 and 4:2:0 chroma subsampling.[1] It supports two types of luma-chroma signals, called YCbCr and YcCbcCrc."

Inte för att det borde spela någon roll.