VGA, DVI eller HDMI ser våra ögon skillnad eller hur e det me det?

Permalänk
Medlem

VGA, DVI eller HDMI ser våra ögon skillnad eller hur e det me det?

Jag har liten fundering angående kablar grafik och skärmen. Jag sitter faktiskt med VGA kabel fortfarande fast jag har modern grafik o 22"samsungskärm
Men faktum är att ser vi verkligen så himla stor skillnad från VGA och DVI eller HDMI egentligen? Hur upplever ni det som har gått från VGA och annat? Är nyfiken på detta hur det ligger till. Mätbart är det säkert i massor men sett från våra egna ögon då?

Visa signatur

Fear

Permalänk
Medlem

beror ju på ögonen, men jag skullke säga att det är ytterst små skillnader om du kollar video eller spelar. vid skrivbordsprogram däremot är det väldigt tydligt.

VGA har också extra nackdel på billigare plattskärmar, vilket inte har med signalstandard i sig att göra såklart.

Visa signatur

Operativsystemet som löser nästan alla problem: Mint

Permalänk
Medlem
Skrivet av Fear:

Jag har liten fundering angående kablar grafik och skärmen. Jag sitter faktiskt med VGA kabel fortfarande fast jag har modern grafik o 22"samsungskärm
Men faktum är att ser vi verkligen så himla stor skillnad från VGA och DVI eller HDMI egentligen? Hur upplever ni det som har gått från VGA och annat? Är nyfiken på detta hur det ligger till. Mätbart är det säkert i massor men sett från våra egna ögon då?

Jag har två VGA skärmar och en HDMI TV. Kvalitetsmässigt tror jag inte vi kan se skillnad förutom på en punkt. På mina två VGA skärmar positioneras ibland bilden lite fel på något sätt, och text och kanter blir lite suddiga. Märks knappt men jag får ont i huvudet efter ett tag. Detta slipper jag på min HDMI TV. Tror DVI har samma fördel. Ska testa lite någon dag med Blu-Ray film, men jag vet inte riktigt vad jag ska leta efter.

Visa signatur

Whales are nice!

Permalänk

http://www.youtube.com/watch?v=xMVDejZH4kw?

Analogt skit mot DisplayPort, som klarar 4k? Nej tack.

Visa signatur

Case: Fractal Design R3 Define * MoBo: MSI P67A-C45 * CPU: Intel i5 2500K @4.5 GHz (CM Hyper Evo 212+, Gentle Typhoon P'n'P, max 63c Prime95) * GPU: Asus GTX 580 DirectCUII * RAM: Corsair 8 GB 1600 MHz * PSU: Corsair HX 750W * SSD: Plextor M5 Pro 256GB + Intel 320 Series 120GB * Monitor: Asus PB278Q 2560x1440 27" * Övrigt: Logitech z506 5.1, Logitech G400, Roccat Arvo

Permalänk
Entusiast

Angående den analoga VGA-signalen, finns det några nackdelar, både kvalitetsmässigt sett, och prestandamässigt sett.

Till en CRT, som i helhet är en analog teknik, så är skillnaderna minimala, om ens märkbara.
Men när det kommer till digitala flatpaneler, där varje pixel representeras av en "fysisk" punkt på panelen, kommer saken i en annan vinkel.

VGA är en analog signal, där tre separata signaler representerar varje sub-färg (Se: RGB)
VGA är ursprungligen tänkt att fungera med CRT-monitorer, men har på senare tid även använts till flatpaneler. Inte helt optimalt, men bra nog att accepteras av den breda massan.

Nackdelen med en analog signal till en flatpanelen är att processorn i skärmen kan ha svårigheter att "se" exakt färginformation till varje pixel när signalerna sveper över. Det finns en risk att nästkommande pixel i uppdateringssvepet kan "smittas" av den föregående pixeln. Detta är extra märkbart där kontrast-skillnaderna mellan grann-pixlarna är stor. Syns oftast i form av skugg-effekter i horisontell led. Dessa effekter syns "extra bra" på en flatpanel, då flatpaneler är "pixel-exakta". Det finns även en risk att pixel-informationen från den analoga signalen försvinner mellan två fysiska pixlar. Varav detta resulterar i att två pixlar visar en inkorrekt visuell presentation av en bildpixel.
Huruvida man kan se dessa med blotta ögat eller inte, beror på vad man har att jämföra med, hur bra signal grafikkortet ger och hur bra kablar samt hur de är dragna. Dessa effekter finns där vare man ser det eller ej. Det är bara en fråga hur bra de syns och vad för referens man har.

Sedan behöver jag nog inte beskriva nackdelarna att överföra en analog signal från "A" till "B". Störningar i form av EMI, Rippel och annat gott som smittar av sig på intill-liggande kablar.

En annan nackdel med en Analog signal till en digital skärm, är signalkonverteringen. Denna konvertering tar inte bara upp dyrbar tid (I form av "Input Lag") utan ger också en viss degradering av informationen, Inte bara en gång, utan två. Första "degraderingen sker när grafikkortet skall konvertera den digital bilden till en svepande analog signal och mata ut denna. Nästa degradering kommer i bildskärmen, där skärmens bildprocessor först måste konvertera tillbaks den analoga signalen till en digital bild igen.
En bra signalprocessor är snabb nog att konvertera signalen och mata den vidare i ett enda svep. Detta minskar signalfördröjningen.
En medioker signalprocessor konverterar signalen och mellanlagrar resultatet i ett bildminne, innan hela bilden skickas vidare till panelen. Detta ger en signifikant signalfördröjning, men ger billigare hårdvara.

När man jämför de andra teknikerna såsom HDMI, DVI, Displayport och så vidare, är det en minimal skillnad, och dessa tekniker skiljer sig mer i fysiskt utförande samt bandbredden. Kvalitén är i regel 100%, då alla är digital signaler, som till och med är kompatibla med varandra. Det är många gånger möjligt att använda enkla passiva adaptrar tack vare detta.
Nackdelar såsom "pixel-smitta", skuggeffekter, störningar och annat är så gott som bortblåst. Liksom hela grundtanken med digitala signaler.
Bildkvalitén är i dessa fall helt upp till bildskärmens paneltyp.
Finns inte mycket att orda om här egentligen.

Visa signatur

Bästa programmen till Linux - v2.0
Linux-guide: Val av grafisk miljö. (Att välja distribution).
-
Everyone should have a SGoC in their systems (SGoC: SysGhost on a Chip)

Permalänk
Medlem

Okej tackar för all denna info och ja jag skall ta tummen ur rövva o sätta dit en HDMI kabel när man ändå e där, men lite tveksam för farsans blev det bara svart skärm. Fick ingen bild o vi har samma skärm men dock inte sammma grafikkort. Vi tröttnade med hans så han fick sätta dit DVI igen.

Visa signatur

Fear

Permalänk
Skrivet av SysGhost:

Angående den analoga VGA-signalen, finns det några nackdelar, både kvalitetsmässigt sett, och prestandamässigt sett.

Till en CRT, som i helhet är en analog teknik, så är skillnaderna minimala, om ens märkbara.
Men när det kommer till digitala flatpaneler, där varje pixel representeras av en "fysisk" punkt på panelen, kommer saken i en annan vinkel.

VGA är en analog signal, där tre separata signaler representerar varje sub-färg (Se: RGB)
VGA är ursprungligen tänkt att fungera med CRT-monitorer, men har på senare tid även använts till flatpaneler. Inte helt optimalt, men bra nog att accepteras av den breda massan.

Nackdelen med en analog signal till en flatpanelen är att processorn i skärmen kan ha svårigheter att "se" exakt färginformation till varje pixel när signalerna sveper över. Det finns en risk att nästkommande pixel i uppdateringssvepet kan "smittas" av den föregående pixeln. Detta är extra märkbart där kontrast-skillnaderna mellan grann-pixlarna är stor. Syns oftast i form av skugg-effekter i horisontell led. Dessa effekter syns "extra bra" på en flatpanel, då flatpaneler är "pixel-exakta". Det finns även en risk att pixel-informationen från den analoga signalen försvinner mellan två fysiska pixlar. Varav detta resulterar i att två pixlar visar en inkorrekt visuell presentation av en bildpixel.
Huruvida man kan se dessa med blotta ögat eller inte, beror på vad man har att jämföra med, hur bra signal grafikkortet ger och hur bra kablar samt hur de är dragna. Dessa effekter finns där vare man ser det eller ej. Det är bara en fråga hur bra de syns och vad för referens man har.

Sedan behöver jag nog inte beskriva nackdelarna att överföra en analog signal från "A" till "B". Störningar i form av EMI, Rippel och annat gott som smittar av sig på intill-liggande kablar.

En annan nackdel med en Analog signal till en digital skärm, är signalkonverteringen. Denna konvertering tar inte bara upp dyrbar tid (I form av "Input Lag") utan ger också en viss degradering av informationen, Inte bara en gång, utan två. Första "degraderingen sker när grafikkortet skall konvertera den digital bilden till en svepande analog signal och mata ut denna. Nästa degradering kommer i bildskärmen, där skärmens bildprocessor först måste konvertera tillbaks den analoga signalen till en digital bild igen.
En bra signalprocessor är snabb nog att konvertera signalen och mata den vidare i ett enda svep. Detta minskar signalfördröjningen.
En medioker signalprocessor konverterar signalen och mellanlagrar resultatet i ett bildminne, innan hela bilden skickas vidare till panelen. Detta ger en signifikant signalfördröjning, men ger billigare hårdvara.

När man jämför de andra teknikerna såsom HDMI, DVI, Displayport och så vidare, är det en minimal skillnad, och dessa tekniker skiljer sig mer i fysiskt utförande samt bandbredden. Kvalitén är i regel 100%, då alla är digital signaler, som till och med är kompatibla med varandra. Det är många gånger möjligt att använda enkla passiva adaptrar tack vare detta.
Nackdelar såsom "pixel-smitta", skuggeffekter, störningar och annat är så gott som bortblåst. Liksom hela grundtanken med digitala signaler.
Bildkvalitén är i dessa fall helt upp till bildskärmens paneltyp.
Finns inte mycket att orda om här egentligen.

Precis vad jag tänkte säga Väl talat.

Visa signatur

Case: Fractal Design R3 Define * MoBo: MSI P67A-C45 * CPU: Intel i5 2500K @4.5 GHz (CM Hyper Evo 212+, Gentle Typhoon P'n'P, max 63c Prime95) * GPU: Asus GTX 580 DirectCUII * RAM: Corsair 8 GB 1600 MHz * PSU: Corsair HX 750W * SSD: Plextor M5 Pro 256GB + Intel 320 Series 120GB * Monitor: Asus PB278Q 2560x1440 27" * Övrigt: Logitech z506 5.1, Logitech G400, Roccat Arvo