Permalänk
Medlem

8bit vs 10bit?

Känner mig helkorkad meeeen!

Leker lite med NVidia control panel och har upptäckt att skärmen klarar av 200Hz 8-bit bpc, jämfört mot sina 165Hz 10-bit.

Nu till saken, jag ser ingen skillnad alls i spel. För det är primära användningsområdet. Finns det något spel som nyttjar 10-bit bpc? Eller kommer det bli aktuellt i snar framtid?

Kanske är blind. Men vad hade ni valt att köra? Mera Hz eller bättre bpc?

Permalänk
Medlem

Kan ha fel men är inte 10bit HDR? Finns väl några HDR spel. Men om inga du spelar nu drar nytta av det så är det väl bara ändra och sedan byta inställningar i framtiden om du ska spela något som drar nytta av 10bit?

Själv kör jag 8 bit 165. 10bit blir 120hz Max och skärmen är ändå kass på HDR för den är för ljussvag för att ens klara HDR 400 så mer att den kan ta HDR signal än att den faktiskt kan visa det rätt.

Visa signatur

Asus B650 TUF, Ryzen 7600X, 32GB 6000mhz DDR5, Corsair RM1000X, Powercolor 6900XT Red Devil Ultimate, 360mm Corsair AIO, MSI Velox 100P Airflow. Kingston KC3000 M.2.

Permalänk
Medlem

10bit (ca 1 miljard) kan visa fler färger än 8bit (ca 16 miljoner) enkelt förklarat.

Visa signatur

Fractal Define 7 | Seasonic Prime Titanium 850W | ROG STRIX B550-E GAMING | AMD Ryzen 7 5800X3D | Thermalright TRUE copper w. 2x Noctua NF-A12x25 | 32GB TridentZ RGB 3600C16 | Asus GeForce RTX 4090 TUF Gaming OC | Samsung 980 Pro 1Tb | Samsung 970 EVO 1Tb | 2x Samsung 850 EVO 1Tb @ RAID1 | Samsung 870QVO 4Tb | Acer Predator X34

Permalänk
Medlem

Det är väl mer för att titta på bilder från t ex systemkamera.

Visa signatur

AMD 3700x, 1700 GB SSD, 18 TB HDD, 32 GB RAM, MSI RTX3070, Dubbla Blueray brännare.

Permalänk
Medlem
Skrivet av dagas:

Kan ha fel men är inte 10bit HDR?

Nja, HDR kan köra 10bpc men det finns också skärmar som inte ens stödjer HDR men har 10/12 bpc. Oftast med hjälp av FRC. Har en faktiskt en sådan skärm på skrivbordet just nu som sekundärskärm. Det ökar detaljrikedomen i färgval och hjälper reducera banding då det helt enkelt finns fler färger att välja mellan. Bör även nämnas att mjukvaran behöver också stödja den större färgrymden, annars kommer den bara skicka en 8 bpc signal.

Visa signatur

Citera eller @philipborg om du vill att jag ska läsa dina svar.

Permalänk
Medlem

Tack för svar gubbar Märker som sagt ingen skillnad i spel, men vart ju pröva lite YouTube 4k HDR material med just färger och jäklar där blev skillnad. Fast får nog stanna där och gå tillbaka till 8bit och utan hdr, det kändes mindre tröttsamt.

Permalänk
Bildexpert 📺

Konsumentskärmar har inte 10-bitars precision i praktiken. De kan ha det i elektroniken, dvs kvantifiera signalen med 10 bitar, men det återfinns inte i praktiken när man synar gradienter utan det är tydlig posterisering med synliga steg mellan nyanser. Då brukar det sällan bli någon betydande skillnad på att köra 8 eller 10 bitars signal ut eftersom panelen är så fysisk begränsad.

I praktiken arbetar konsumentpaneler med 6 eller 8 bitars precision och "adresserar" 10 bitar genom FRC och halvtonsmönster. Artikel om detta här: https://www.sweclockers.com/artikel/28307-frc-fixar-fargerna-...

Panelerna är analoga så det handlar i slutändan om precisionen i sätta millivoltnivåerna rätt för varje pixel. Då förutsatt att all bildprocessning och interna LUT:ar från början gör det felfritt, vilket sällan är fallet.

Tar man en yrkesskärm, säg Eizo Color Edge-skärmarna, och kör 8 bitar kan man köra en gråramp och där räkna att det faktiskt är 250-ish distinkta (8 bitar=256 steg), jämna band av gråtoner från svart till vitt. Vid 10 bitar blir det jämnare och man är närmare de 1024 stegen. Medan spelskärmar och enkla konsumentskärmar inte ger 250-ish distinka band vid 8-bitar utan någon godtyckligt ojämn variant. Det blir sedan ingen betydande skillnad med 10 bitar. Man får helt enkelt vad man betalar för.

Utöver panelkvaliteten och den interna bildbehandlingen kommer också att merparten programvaror inte hanterar 10 bitar. Man får inte ut mer än 8 bitar i vilket fall.

HDR förändrar detta eftersom det behövs 10 bitar för att täcka in nyansomfånget. Man kan köra HDR med 8 bitar med halvtonsmönster i Windows och då är det Windows som renderar halvtonerna. Detta kan faktiskt kan bli något bättre än att låta en sämre skärm försöka ta hand om 10 bitar och misslyckas.