Trädvy Permalänk
Medlem
Plats
Halmstad
Registrerad
Jun 2009

Alla dessa bitar

Jag försöker få min hjärna att förstå hur det fungerar med alla dessa bit-djup när det gäller färger i digitala bilder och skärmar.

• Frugan har en Canon 5D Mark IV och enligt vad jag kan utläsa av specifikationerna så tar den raw-bilder i 14-bitar.
• I Lightroom och Photoshop kan man redigera raw-bilderna i 16-bitar för att behålla så mycket färgdjup som möjligt.
• Samtidigt så kan tydligen inte programvaran Lightroom visa mer än 8 bitar och Photoshop max 10 bitar (och 10 bitar i Photoshop går bara om man har ett grafikkort som kan visa 10 bitar via Open GL, tex ett Quadro-kort).
• När det sen gäller bildskärmar så kan många (äldre) bildskärmar bara visa 8 bitar, medans det idag är vad jag kan förstå rätt vanligt med 10 bitar i bildskärmar.

Hur går allt det här ihop?? Hur i hela friden kan man redigera en 14 bitars bild i 16 bitar i en programvara som bara kan visa 8 bitar och visa den på en skärm som visar 10 bitar??

Förrvirrad

// Benjamin

i7 2600k@4,5Ghz, MSI P67A-GD80, H-70+2GT1850 PP, MSI 670 PE/OC, 8GB Corsair Vengeance 1866Mhz, Samsung 850 pro 256 GB SSD, HyperX 120 GB SSD, WD Black 640 GB, Corsair HX750 W, BenQ 2412HD, Windows 10 64-bit

Trädvy Permalänk
Medlem
Plats
Linköping
Registrerad
Jun 2007

När det gäller kameran så har den en A/D-omvandlare på 14-bit, d.v.s. kameran läser av det analoga värdet på varje sensorpixel och omvandlar det till ett 14-bitars digital värde.

Men i en vanlig dator är den minsta enheten som kan addresseras en byte, d.v.s. 8 bitar, så redigeringsprogrammen använder då två byte för att representera en pixel, d.v.s. 16 bitar. De "slösar" med andra ord bort 2 bitar per pixel eftersom det skulle bli för omständligt att hålla på och packa bitarna så att man inte får något spill.

De allra flesta har sen en skärm som visar 8 bitar (10 bitar används för t.ex. HDR). Detta betyder att man behöver komprimera färgerna så att de får plats i dessa 8 bitar, d.v.s. man minskar antalet nyanser. Minskar man antalet nyanser för mycket så får man posterisering, men 8 bitar per färgkanal räcker ofta ganska långt.

Detta är också orsaken till att man i redigeringsprogrammen kan lyfta skyggor och sänka högdagrar, råfilen innehåller helt enkelt mer information än en vanlig skärm kan visa. En stor del av redigeringen av råfiler handlar därför om att välja vilken del av den informationen som ska användas, och hur den ska tolkas. D.v.s. exakt hur man vill att omvandlingen från 14 bitar till 8 bitar ska gå till.

Trädvy Permalänk
Medlem
Registrerad
Aug 2013

Intressant tråd! Jag hoppar in med en följdfråga till den som kanske kan

Baserat på att pixlarna på datorskärmen har fått sin färgrymd komprimerad antar jag att man inte "ser hela sanningen" så att säga. Men om jag anlitar någon för en utskrift, finns det skrivarutrustning som kan ta tillvara på hela färgrymden då? Om det stämmer, skulle det i så fall innebära att den kan skriva ut i nyanser som jag faktiskt inte kan se på min datorskärm?

Trädvy Permalänk
Medlem
Plats
Halmstad
Registrerad
Jun 2009
Skrivet av perost:

De allra flesta har sen en skärm som visar 8 bitar (10 bitar används för t.ex. HDR). Detta betyder att man behöver komprimera färgerna så att de får plats i dessa 8 bitar, d.v.s. man minskar antalet nyanser. Minskar man antalet nyanser för mycket så får man posterisering, men 8 bitar per färgkanal räcker ofta ganska långt.

Men om nu skärmen bara visar 8 bitar då måste väl ändå skärmen redan ha minskat nyanserna, eller tagit bort/ersatt nyanser som den inte kan visa. Borde inte visningen av en 16 bitars bild på en 8 bitars skärm redan riskera posterisering??

Skickades från m.sweclockers.com

i7 2600k@4,5Ghz, MSI P67A-GD80, H-70+2GT1850 PP, MSI 670 PE/OC, 8GB Corsair Vengeance 1866Mhz, Samsung 850 pro 256 GB SSD, HyperX 120 GB SSD, WD Black 640 GB, Corsair HX750 W, BenQ 2412HD, Windows 10 64-bit

Trädvy Permalänk
Hedersmedlem
Plats
Malmö
Registrerad
Apr 2007
Skrivet av benonikenobi:

Men om nu skärmen bara visar 8 bitar då måste väl ändå skärmen redan ha minskat nyanserna, eller tagit bort/ersatt nyanser som den inte kan visa. Borde inte visningen av en 16 bitars bild på en 8 bitars skärm redan riskera posterisering??

Skickades från m.sweclockers.com

Jo. Så är det.
Å andra sidan finns det väl egentligen tekniskt sett posteriseringsproblem även på 16 bitar och även för 24 bitar. Men de blir mindre och mindre så vi ser det inte.
Det relevanta för sammanhanget är väl kanske hur mycket vi människor med vår begränsade syn kan urskilja.
Problemen med posterisering uppstår först när vi ser problemet och 8 bitars bilskärmar verkar kunna ge en nivå där vi människor inte har några större problem med posterisering. Ökar man det till 10 bitar så är man nog på det torra.
Så varför i hela friden då samla in högre nivåer än vi kan urskilja eller som vi ens kan visa upp på skärmarna?

Här började jag skriva ett längre svar men dumpade hela den delen och länkar istället till den eminenta genomgången @laxpudding har gjort av relevansen att använda högre bitdjup än vad skärmen kan använda:
https://www.sweclockers.com/artikel/22594-sweclockers-guide-t...

Varför man går så högt som 16 bitar initialt vet jag inte. Men det kanske handlar om att man vill ta höjd i flera led av behandling?
Ja nä det kan finnas fler faktorer som jag inte känner till.

🖥 → Ryzen 5 2600@4,1ghz • Sapphire Nitro R9 390 • 16GB DDR4 • MSI B450I Gaming Plus AC (mITX)
💻 → SurfacePro 3 [i5 • 4GB ddr3 • keybaord + pen]
🖱 → Corsair m65 white / ⌨ → pok3r nordic white
📱 → Oneplus6
🎧 → Sennheiser momentum wireless & Logitech g930

Trädvy Permalänk
Medlem
Plats
Linköping
Registrerad
Jun 2007
Skrivet av benonikenobi:

Men om nu skärmen bara visar 8 bitar då måste väl ändå skärmen redan ha minskat nyanserna, eller tagit bort/ersatt nyanser som den inte kan visa. Borde inte visningen av en 16 bitars bild på en 8 bitars skärm redan riskera posterisering??

Det är inte skärmens jobb att reducera färgerna, den kräver att man skickar en korrekt bildsignal till den. Om den sen visar exakt de nyanser som bildsignalen säger att den ska visa är en annan fråga, det är ju inte säkert att skärmen faktiskt klarar av att återge hela färgrymden som används eller att den är korrekt kalibrerad. Men det har inget med antalet bitar att göra. Du kan läsa mer om färgrymder och annat i denna Sweclockers-artikel.

Men när du redigerar en 16-bitars bild i t.ex. Lightroom så använder Lightroom 16 bitar per färgkanal i sin interna representation av bilden. Bilden som visas av Lightroom kommer däremot använda 8 bitar per färgkanal, d.v.s. vad du ser är resultatet av konverteringen till 8 bitar baserat på hur du dragit i reglagen.

8 bitar per färgkanal ger för övrigt mer än 16.7 miljoner färger, det klarar man sig som sagt ganska långt med (jag har läst att en normal människa kan urskilja ca 10 miljoner färger). Man kan så klart få posterisering ändå när man redigerar en bild, men det är betydligt vanligare om man börjar med en bild som har 8 bitar per färgkanal. Se t.ex. denna sida för lite exempel (och tänk på att alla bilder du ser på sidan är 8-bitars).

Skrivet av Söderbäck:

Varför man går så högt som 16 bitar initialt vet jag inte. Men det kanske handlar om att man vill ta höjd i flera led av behandling?
Ja nä det kan finnas fler faktorer som jag inte känner till.

Det handlar om att när man gör olika operationer på en bild när man redigerar den så förlorar man i regel precision. Börjar man då med 8 bitar per färgkanal så kan man snabbt få problem. Se sidan jag länkade ovan för lite exempel.

Trädvy Permalänk
Bildexpert 📺
Thomas Ytterberg
Registrerad
Mar 2013

14 bitar är ett vanligt mål eftersom det täcker in tumregeln är 10.000 nivåskillnader av ljus inom ett kontrastomfång på 100:1 – alltså ögats förmåga att särskilja nivåer av ljus från varandra.

8 bitar = 256 steg
10 bitar = 1 024 steg
12 bitar = 4 096 steg
tumregeln ≈ 10.000 steg
14 bitar = 16 384 steg

Internt i Photoshop med mer arbetar man i högre bitdjup likt 16-bit för att inte förlora information som finns där och minska de avrundningsfel som uppstår vid diskreta nivåer.

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Jul 2001
Skrivet av Söderbäck:

Varför man går så högt som 16 bitar initialt vet jag inte. Men det kanske handlar om att man vill ta höjd i flera led av behandling?
Ja nä det kan finnas fler faktorer som jag inte känner till.

Ju högre du har initialt, desto större marginal har du att kunna fota lite fel och att redigera materialet i efterhand.
Skulle du fota i 10 bitar behöver du ta ett perfekt foto med ljuset precis som du vill ha det från början, annars kommer du tappa information genom redigering.

Ubuntu | 1440p IPS | 7700k | 1080ti | 32GB@3.6GHz | 960 Pro 1TB | Xonar STX