AMD Radeon och stödet för "Deep Color" eller "30-bit color"

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Mar 2010

AMD Radeon och stödet för "Deep Color" eller "30-bit color"

Har nyligen gått över till Nvidia och GTX 670 men upptäckte precis att Nvidias kort inte har stöd för Deep color/30-bit color. När jag körde mitt gamla Radeon 5770 över HDMI så fick jag ut 30-bit color på min TV, men nu med GTX 670 får jag bara ut 24-bit som verkar vara någon slags standard. Jag stör mig lite på detta och tänker att jag kanske fick en finare bild med mitt gamla 5770 som numera är sålt, så jag kan inte direkt jämföra.

Har dagens spel ens stöd för 30-bit color, och ser man någon skillnad? Bör jag skaffa ett 7970 istället p.g.a. detta, eftersom min TV verkar ha stöd för 30-bit? För er som är nyfikna kan ni se skillnaden på dessa bilder:

8-bit (RGB 3x8-bit = 24-bit)

10-bit (RGB 3x10-bit = 30-bit)

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Jun 2010

stor skillnad på skuggorna

“It was luxuries like air conditioning that brought down the Roman Empire. With air conditioning their windows were shut; they couldn’t hear the barbarians coming.”

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Dec 2010

Skuggor och klarheten på färgerna är starkare på 30-bit. Men om spel stödjer det eller inte har jag ingen aning om, rent teoretiskt borde väll grafikkortet kunna kalkylera om 24-bit grafiken till 30-bit då det är en fråga om "klarget"(färgkorrigering) och inte pixlar?

Som sagt, har inte den blekaste aning och har aldrig tänkt på det själv ett dugg

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Mar 2010

Precis, för personer som jobbar med bildbehandling blir säkert 30-bit en stor skillnad. Men frågan är om skillnaden syns i 3D-spel. Efter ett antal googlingar så blev jag tyvärr inte mycket klokare då detta knappt verkar vara diskuterat i spelvärlden. Vi får hoppas på att någon mer kunning kan ge oss svar i denna tråd

Trädvy Permalänk
Hjälpsam
Plats
Luleå
Registrerad
Mar 2004

Har inte länkar till hands, utan bara var jag har i huvudet, tillåter verkligen nVidia inte 10bit med HDMI 1.3 (eller senare) och DX10 (eller senare)? Upp till 10bit var jag rätt övertygad om att den skall klara, däremot kan det vara lite skillnad på hur färgdjupet hanteras i multiskärm, testa att köra endast din TV inkopplad så det inte blir några konflikter med primärskärmens färgdjupskrav.

Allt jag säger/skriver här är mina egna åsikter och är inte relaterade till någon organisation eller arbetsgivare.

Jag är en Professionell Nörd - Mina unboxing och produkttester (Youtube)
Om du mot förmodan vill lyssna på mig - Galleri min 800D med 570 Phantom SLI

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Mar 2010

Det snackades om att det skulle komma stöd för det i 260-drivrutinerna, och det var ju ett bra tag sedan de släpptes. Det verkar dock inte som att det blev av om man läser denna tråd: http://forums.nvidia.com/index.php?showtopic=227547

Det känns lite som att Nvidia vill hålla 30-bit stödet exklusivt för deras dyrare Quadro workstation cards. Men jag ska ta och testa att koppla ur min skärm till datorn helt och bara köra på TV'n.