Asus VG278HE – världens första gamingskärm med 144 Hz uppdateringsfrekvens

Permalänk
Entusiast
Skrivet av _Akta:

Tror jag mest försökte få till en lättförstålig liknelse men det du skriver är nog en tydligare formulering för hur det fungerar.

Det är därför man kör interlaced på CRT. Så ett vanligt TV-program spelas in med 25 FPS, det vill säga att vi behöver svepa med elektronstrålen över hela skärmen 25 gånger. Fast då blir det lite fult eftersom bildpunkterna överst på skärmen hinner slockna innan de i botten har ritats klart. Resutlatet blir inte bra. Därför arbetar en CRT TV typiskt på högre frekvens för att svepa oftare. Standard är att man kör det som kallas 50i, alltså 50 fps interlaced. Då delar man upp bilden i två delar så att elektronstrålen bara ritar ut varannan rad varje gång. Resultatet blir mycket jämnare bild. Försöker man visa interlaced på en LCD ser det däremot ut som skit eftersom den som standard trycker ihop två rutor till en för att få 25 fps igen vilket ger väldigt randiga bilder när det rör sig fort.

Så av denna väldigt enkla tekniska anledning spelade frekvensen roll på en CRT på ett helt annat sätt än på LCD som ju lyser lika starkt hela tiden tills det är dags att släcka pixeln för att byta färg.

Det är alltså en rätt komplex fråga det här.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av vigilent:

Jag tar lite illa upp p.g.a. att jag en dag hoppats få spela på en LCD som känns lika bra i rörelser som en CRT med hög uppdateringsfrekvens
Något som kanske inte är möjligt med TN eller IPS?
Detta färgbyte du pratar om, är det vad LCD-skärmars responstid syftar på?

Nej, nu blev jag bara sugen på att bära upp den suddiga 21" tjockisen ifrån källaren ;D

Skulle vara kul att testa, har själv 3 19-tummare undanstoppade.

Om det där med färgbyten, ett bra sätt att beskriva kanske är att "klara" bilder blinkar på en CRT medans LCD lyser och glider från färg till färg . Man brukar som du säger kalla tiden det tar för LCD-pixlar att byta färg för responstid. Vad tillverkarna skriver om responstid i reklamen bör man nog oftast ta med en nypa salt, det tar olika lång tid beroende på mellan vilka färger det byts mellan osv.
Senast jag testade CRT bredvid LCD(jag kör 2 datorer ungefär som en del kör med två skärmar med en dator) för några år sedan så tyckte jag min VA-LCD såg ospelbart grusigt ut när jag provade att snurra runt i "first person shooter"-spel och jag tycker inte den skärmen är direkt vansinnigt grummlig jämfört med andra LCD-skärmar vid snabba rörelser, jag har dock givetvis inte testat i närheten av alla skärmar. Men det är definitivt skillnad mellan olika LCD-skärmar och det verkar bli bättre och bättre även om man kan tycka att det gått långsamt.

Skrivet av Zotamedu:

Det är därför man kör interlaced på CRT. Så ett vanligt TV-program spelas in med 25 FPS, det vill säga att vi behöver svepa med elektronstrålen över hela skärmen 25 gånger. Fast då blir det lite fult eftersom bildpunkterna överst på skärmen hinner slockna innan de i botten har ritats klart. Resutlatet blir inte bra. Därför arbetar en CRT TV typiskt på högre frekvens för att svepa oftare. Standard är att man kör det som kallas 50i, alltså 50 fps interlaced. Då delar man upp bilden i två delar så att elektronstrålen bara ritar ut varannan rad varje gång. Resultatet blir mycket jämnare bild. Försöker man visa interlaced på en LCD ser det däremot ut som skit eftersom den som standard trycker ihop två rutor till en för att få 25 fps igen vilket ger väldigt randiga bilder när det rör sig fort.

Så av denna väldigt enkla tekniska anledning spelade frekvensen roll på en CRT på ett helt annat sätt än på LCD som ju lyser lika starkt hela tiden tills det är dags att släcka pixeln för att byta färg.

Det är alltså en rätt komplex fråga det här.

Ja där ser man, ännu mer mångfaceterat. Skulle inte kallat mig för ordentligt insatt för 15 år sedan heller och får erkänna att det mesta du skrev definitivt inte fanns i mitt aktiva minne.

Permalänk
Medlem

Jag läste någonstans att ögat kan se färger i upp till 50FPS, medan det kan se svart och vitt i upp till 200 FPS. Sedan hur snabbt hjärnan kan processera informationen vet jag ej, men jag tror inte de flesta KAN märka skillnad över 150FPS.

144 är så extremt marginellt bättre.
120hz räcker och blir över för 99% av alla användare. Jag klarar mig fint på 60 till och med.

Permalänk
Medlem
Skrivet av Zotamedu:

Det är därför man kör interlaced på CRT. Så ett vanligt TV-program spelas in med 25 FPS, det vill säga att vi behöver svepa med elektronstrålen över hela skärmen 25 gånger. Fast då blir det lite fult eftersom bildpunkterna överst på skärmen hinner slockna innan de i botten har ritats klart.

Fosforns utlysningstid är i storleksordningen 0.05 till 1 ms beroende på färg(röd är långsammast). Bildpunkterna slocknar alltså, interlace eller ej, långt innan elektronstrålen skannat över hela bilden(~15ms). Anledningen till att vi ändå uppfattar en [någorlunda] stabil bild är att den hänger kvar på näthinnan.

Skrivet av _Akta:

Senast jag testade CRT bredvid LCD(jag kör 2 datorer ungefär som en del kör med två skärmar med en dator) för några år sedan så tyckte jag min VA-LCD såg ospelbart grusigt ut när jag provade att snurra runt i "first person shooter"-spel....

Skillnaden du såg beror på att LCD håller kvar bilden ända till nästa uppdatering. Eftersom det är naturligt för ögat att följa rörliga objekt(t.ex när du tittar runt i ett FPS) med en jämn hastighet så kommer man därför alltid att få rörelseoskärpa när ögat sveper över de "fasta" bilder som en LCD-monitor visar. På en CRT-monitor ligger dock inget ljus kvar mellan uppdateringarna, och alltså finns där ingenting som kan smeta ut bilden som "finns kvar" på näthinnan.

Högre uppdateringsfrekvenser hjälper säkert LCD en del, men jag skulle tro att en 75Hz CRT slår vilken 120Hz-LCD som helst på fingrarna. Dessutom till en mycket lägre renderingskostnad.

Notera att oskärpan inte finns rent konkret på skärmen utan är en bieffekt som skapas i vårt visuella system.

CRT>LCD

Permalänk
Medlem
Skrivet av Pontraz:

Onödigt.. Ögat ser ändå ingen skillnad på 120- & 144 Hz.

Det är en gamingskärm och om inte annat reducerar 144 Hz din input lag något jämfört med 120 Hz. I synnerhet om du gillar att köra med någon frame rate limiter eller VSync på.

Permalänk
Medlem

120hz är ute, 144hz FTW!!

Once u go 144hz, theres no going back!

Visa signatur

r_wateralpha 0.3

Permalänk
Medlem
Skrivet av Pontraz:

OH WAIT.

"The human eye and its brain interface, the human visual system, can process 10 to 12 separate images per second, perceiving them individually.[1] The visual cortex holds onto one image for about one-fifteenth of a second, so if another image is received during that period an illusion of continuity is created, allowing a sequence of still images to give the impression of motion."

http://en.wikipedia.org/wiki/Frame_rate

Själva poängen med video och flyt i spel är att ögat ska uppfatta bildrutorna som en helt jämn, verklig ström. Att kunna urskilja enskilda bildrutor har alltså mycket lite med saken att göra. Vi kanske inte kan uppfatta bildrutorna separat, men vi kan uppfatta hackighet och brist på flyt (alltför stötvisa förändringar) bra mycket högre än i 10-12 fps.

Vidare hjälper en högre uppdateringsfrekvens inte bara genom att sänka input lag utan även att dölja LCD-teknikens inneboende svaghet med ghosting (eftersom inte LCD pulsar färdiga bilder).

Permalänk
Medlem
Skrivet av Morkul:

Tittar man på TV så ser i alla fall jag ingen skillnad på TV med 100hz och 400hz. Frågan är om de mäter sina frekvenser på något annat sätt?

Din TV:s panel ligger inte på 400 "riktiga" Hz.

Däremot ser jag stor skillnad på min mellan MotionFlow = Standard och MotionFlow = Smooth. Min TV marknadsfördes som 400 Hz, men panelen ligger "bara" på 200 "riktiga" Hz. Siffran 400 Hz kommer från att TV:n även kan visa "varannan svart" för att simulera 400 Hz (det läget gillar jag inte). Jag misstänker att Standard = 120 Hz och MotionFlow = 240 Hz (för 24p-material och NTSC, 200/400 Hz för PAL) eftersom Standard är ganska mjukt men Smooth är mycket mjukare (då blir det perfekt).

Skrivet av fredrikstorm:

TVapparater som säljs med texten "400Hz" klarar av 400Hz i upplösningen 800x600 typ, det är ett försäljningsknep. Tänk dig: "Nu med 64GB RAM och 32-bitars Windows 7"

Vilken TV (konsumentprodukt) klarar av 400 "riktiga" Hz ens i 800x600 eller 640x480?

Skrivet av Wully:

ja, din tv har bara 50hz sen är allt över det fake och mjukvaru hz. Kan inte förklara det men vet att det är fake hz

Nej, min TV har 240 "riktiga" Hz (dvs panelen klarar av att visa riktiga bilden 240 Hz). Däremot accepterar inte TV:n någon input över 1080p60, så resterande bilder hittar TV:n på själv (MotionFlow), men det är inte fake Hz.

Permalänk
Konsolpleb 🕹

Ser ju ut som en "vanlig" VG278H fast utan inbyggd 3d-sändare och inga 3d-glasögon.
Förmodligen har de något schysstare komponenter på den som gör att de kan "överklocka" panelen till 144Hz (asus tillverkar inga egna paneler så med 99% sannolikhet är det här "bara" en vanlig 120Hz panel som de tweakat)

är ju billigare:
http://www.prisjakt.nu/#rparams=ss=vg278he
än vanliga vg278h också:
http://www.prisjakt.nu/produkt.php?p=1005706

Så man ska nog inte hänga upp sig på det där med 144Hz så mycket, det är bara en added bonus för dem som vill köpa en VG278H utan att behöva betala för 3d-grejen.

Blev själv ganska sugen på att uppgradera från min VG236H som jag i ärlighetens namn tycker är ganska sunkig. Har väldigt svårt att märka skillnad på 60 och 120 Hz på den. Medan jag ser DIREKT skillnad när jag testar polarens 120 Hz LG (bara så enkel sak som att muspekaren rör sig smidigare)
Har testat vanliga VG278H och var väldigt nöjd med vad jag såg (och tycker inte att 1080p är för lågt på 27 tum faktiskt, och framförallt vill jag inte investera i ytterligare ett 680 för att spel ska flyta) så det här kan ju bara bli bättre och så slipper man betala för glasögon som jag aldrig skulle få för mig att använda.

Visa signatur

240p är livet

Permalänk
Medlem
Skrivet av kabex:

Nope, de klarar 400 Hz. Problemet ligger i att det inte finns någon input med >120 Hz, och TV-apparater brukar inte ens ha något som stödjer >60Hz.

Vilken konsument-TV klarar 400 "riktiga" Hz? (400 fulla unika 8-bit-per-färg-bilder.) Alltså utan att hälften är varannan svart eller att backlighten blinkar och liknande.

edit:

Skrivet av kabex:

FYI så är filmer oftast inspelade i ca 24 FPS, så där ryker det. Det är skillnad på film och interaktiv media (spel).

Hört talas om motion interpolation? Det ser riktigt bra ut på min Sony i alla fall (det kan fortfarande så dåligt ut på andra modeller, i synnerhet budget-modeller med klenare elektronik för bildbehandling).

Permalänk
Medlem

Det här är ett informativt inlägg (rekommenderas för att slå hål på myter).

Skrivet av DAoG:

Jag tror nog att det är en hel del inbillning inblandad. Om du inte kör ditt spel i slowmotion och med vsync på.

Ang. 1080p så är bilden helt perfekt på min 70" TV, så 4k känns väldigt överflödigt och man kommer verkligen inte se något skillnad. Fast cyborgögon kanske kommer snart.

Hur vet du att 1080p är helt perfekt och 2160p (4k) är överflödigt? Har du jämfört stillbilder? Sittavstånd?

För perfekt bild för människor (utan synfel) krävs en pixelstorlek på omkring 0,3 bågminuter (arc minutes) eller mindre. (Men troligen har ytterst få så bra syn.)

I följande formler (avsedda för Google) är:

x = antal tum ("in") på diagonalen (för en 16:9-TV, i vårt fall 70)
y = sittavstånd i meter ("m")
z = vertikal upplösning (antal pixlar på höjden, 1080 i vårt fall)

För att räkna ut på vilket avstånd (eller längre) vertikal upplösning z vid tumstorlek x börjar bli teoretiskt perfekt:

( (x in) / z * 9 / ((16^2+9^2)^0.5) / tan( 0.3 arc minutes ) ) in meters

Exempel: ( (70 in) / 1080 * 9 / ((16^2+9^2)^0.5) / tan( 0.3 arc minutes ) ) in meters = 9.24885961 meters

För att räkna ut vid vilken vertikal upplösning (eller högre) tumstorlek x på avstånd y börjar bli teoretiskt perfekt:

( (x in) / (y m) * 9 / ((16^2+9^2)^0.5) / tan( 0.3 arc minutes ) )

Exempel: ( (70 in) / (5 m) * 9 / ((16^2+9^2)^0.5) / tan( 0.3 arc minutes ) ) = 1997.75

För att räkna ut vid vilken tumstorlek (eller mindre) vertikal upplösning z på avstånd y börjar bli teoretiskt perfekt:

( (y m) * z / 9 * ((16^2+9^2)^0.5) * tan( 0.3 arc minutes ) ) in inches

Exempel: ( (5 m) * 1080 / 9 * ((16^2+9^2)^0.5) * tan( 0.3 arc minutes ) ) in inches = 37.8425033 inches

Om du bara vill veta vilken pixelstorlek i bågminuter din nuvarande konfiguration motsvarar:

arctan( (x in) / (y m) / z * 9 / ((16^2+9^2)^0.5) ) in arc minutes

Exempel (ungefär min, jag sitter extremt nära): arctan( (52 in) / (3 m) / 1080 * 9 / ((16^2+9^2)^0.5) ) in arcminutes = 0.687058135 arc minutes

Videofiler kan sänka målet 0,3 bågminuter ("0.3 arc minutes") ytterligare om ökad säkerhetsmarginal önskas.

Formlerna är mina egna, men dagbro inspirerade mig att använda Google för den här typen av beräkningar.

Permalänk
Medlem

Det var allt ett väldigt högt pris för 1920x1080. Det får man ju nästan Dells 27" 2560x1440 som troligen ger en ännu bättre spelupplevelse.

Permalänk
Avstängd

27" och 1920x1080 är perfekt för gaming!

Inväntar denna med spänning!

Permalänk
Medlem
Skrivet av Pontraz:

OH WAIT.

"The human eye and its brain interface, the human visual system, can process 10 to 12 separate images per second, perceiving them individually.[1] The visual cortex holds onto one image for about one-fifteenth of a second, so if another image is received during that period an illusion of continuity is created, allowing a sequence of still images to give the impression of motion."

http://en.wikipedia.org/wiki/Frame_rate

Snart säger du väl att man inte ser skillnad på 12fps och 60fps, för ögat kan ändå bara processa 10-12 bilder per sekund.

Visa signatur

Intel Core i7 14700k (Noctua NH-D15) | MSI Z790 Gaming Plus | Corsair Vengeance 32GB DDR5 5600Mhz | MSI GeForce RTX 4090 Gaming X Trio | Asus ROG Strix Aura 850W | Samsung 990 Pro M2 4TB |

Permalänk
Avstängd

Jag hatar att klaga, men ska jag vara ärlig...
16:9 är sämre än 16:10
TN
1080P på 27 " !!!

Frekvens var dock väldigt trevlig, jag skulle villa känna skillnaden i tex WoW och sen CoD mellan 60 och 120 och 144 innan jag dömer ut det också.

Visa signatur

Cherry MX Brown:Compaq MX 11800, Cherry MX Blue: Razer Blackwidow, Cherry MY: Schneider g81, Black ALPS : Delll AT102W Black, Buckling Spring: IBM Model M, IBM Model N2, Rubber Dome: Keytronic ErgoForce....Senast aktiv Idag

Permalänk
Medlem
Skrivet av Sears:

Jag läste någonstans att ögat kan se färger i upp till 50FPS, medan det kan se svart och vitt i upp till 200 FPS. Sedan hur snabbt hjärnan kan processera informationen vet jag ej, men jag tror inte de flesta KAN märka skillnad över 150FPS.

144 är så extremt marginellt bättre.
120hz räcker och blir över för 99% av alla användare. Jag klarar mig fint på 60 till och med.

Sedan tycker jag personligen att 16:10 och 1920x1200 är en betydligt bättre egenskap än 22hz extra för gamers
Jag hoppas 16:10 fortfarande finns på marknaden när jag ska köpa en ny skärm, för 16:9 är på gränsen till för ihop-tryckt.

Permalänk
Medlem
Skrivet av Sears:

Sedan tycker jag personligen att 16:10 och 1920x1200 är en betydligt bättre egenskap än 22hz extra för gamers
Jag hoppas 16:10 fortfarande finns på marknaden när jag ska köpa en ny skärm, för 16:9 är på gränsen till för ihop-tryckt.

Men 16:9 med samma tumantal (på diagonalen) är billigare att tillverka än 16:10 och det tycker industrin är en betydligt bättre egenskap.

Det skulle hjälpa (eller åtminstone inte stjälpa) vår sak om man istället fokuserade på kvadrattum. Men 16:9-skärmar kan fortfarande använda samma produktionslinjer som för 16:9-paneler (för 1080p och annat 16:9-videomaterial) och blir därför billigare (storskalighet).

Permalänk
Avstängd

16:9 är självklart bättre än 16:10 eftersom du ser mer av spelet.

Dessutom görs alla konsol och datorspel för 16:9 nu för tiden.

Permalänk
Hedersmedlem
Skrivet av kol:

16:9 är självklart bättre än 16:10 eftersom du ser mer av spelet.

Men nu gäller det absolut inte alla spel... I ett gammalt spel med stöd enbart för 4:3 och 5:4 upplösningar är det illa nog att sitta på en 16:10 skärm. Har som tur är tre 20"-skärmar stående i garderoben för nostalgi-gaming.

I de spelen jag kör mest så är hur mycket jag ser av spelet helt beroende av skärmens upplösning. Längre upplösning, sämdre FOV. Således är 16:9-skärmar egentligen bara till nackdel för min egen del.

Visa signatur

|| SWECLOCKERS.COM || oskar@sweclockers.com || OSkar000.se || Fototråden ||
|| Gundeman || Bartonofix || GundemanX2 || Obelinux || Nexofix || Filofix || Ircofix ||
|| Tillse att hjärnan är inkopplad innan fingrarna vidrör tangentbordet ||
|| D300 | D700 | 24/2,8 | 28/2,8 | 35/2 | 50/1,8 | 55/2,8 | 85/1,8 | 105/2,5 | 200/4 | 300/4,5 | 10-20 | 24-70/2,8 | 75-150/3,5 | 80-200/2,8 ||

Permalänk
Medlem
Skrivet av kol:

16:9 är självklart bättre än 16:10 eftersom du ser mer av spelet.

?
Det är väl mera upplösningen som avgör det framför formatet.

Visa signatur

i7 2600k | P8P67Deluxe | Noctua NH-D14 | KFA2 GTX1080 EXOC | Corsair 750W | Corsair Obsidian 800D | Dell U2412M
America's Army: Proving Grounds

Permalänk
Medlem
Skrivet av kol:

16:9 är självklart bättre än 16:10 eftersom du ser mer av spelet.

Dessutom görs alla konsol och datorspel för 16:9 nu för tiden.

Det är ju helt upp till spelets utvecklare. Antingen gör man 16:9 bredare eller 16:10 högre. 16:10-upplösningar har dock drygt 11% högre upplösningar, därför är det mer naturligt att se det som att 16:10 växer på höjden (än att 16:9 växer på bredden). (Men en 16:9 blir å andra sidan såklart något billigare att driva, eftersom den har lägre upplösning än 16:10.) Om du vill se så mycket av spelet som möjligt är det multi-skärm som gäller.

Något som vet vad våra ögons kombinerade bildförhållande ligger på?

Permalänk
Avstängd
Skrivet av MrMuppet:

Det är ju helt upp till spelets utvecklare. Antingen gör man 16:9 bredare eller 16:10 högre. 16:10-upplösningar har dock drygt 11% högre upplösningar, därför är det mer naturligt att se det som att 16:10 växer på höjden. (Men en 16:9 blir å andra sidan såklart något billigare att driva, eftersom den har lägre upplösning än 16:10.) Om du vill se så mycket av spelet som möjligt är det multi-skärm som gäller.

Nej, 16:10 har inte fler pixlar.

Nu är det ju så att spelutvecklarna utvecklar spelen så att du ser mer i 16:9.

Permalänk
Medlem
Skrivet av kol:

Nej, 16:10 har inte fler pixlar.

Eh, jo. Jämför WUXGA med 1080p. 1920x1200 vs 1920x1080. Mätt i pixlar/upplösning ökar 16:10 på höjden jämfört med 16:9.

Skrivet av kol:

Nu är det ju så att spelutvecklarna utvecklar spelen så att du ser mer i 16:9.

En hel del spel är faktiskt t.o.m. Vert-:
http://www.wsgf.org/category/screen-change/vert

Permalänk
Medlem
Skrivet av MrMuppet:

Något som vet vad våra ögons kombinerade bildförhållande ligger på?

inte riktigt, men det är ca. kvadratiskt.
tett på 180grader horisontalt, något mindre vertikalt, så 5:4 eller så.

Visa signatur

i7 2600k | P8P67Deluxe | Noctua NH-D14 | KFA2 GTX1080 EXOC | Corsair 750W | Corsair Obsidian 800D | Dell U2412M
America's Army: Proving Grounds

Permalänk
Avstängd
Skrivet av MrMuppet:

Eh, jo. Jämför WUXGA med 1080p. 1920x1200 vs 1920x1080. Mätt i pixlar/upplösning ökar 16:10 på höjden jämfört med 16:9.

Aspect ratio har inget med antal pixlar att göra.

Vi kan likväl jämföra 1680x1050 och 1920x1080 och man inser snart att det inte har med aspect ratio att göra.

Permalänk
Avstängd
Skrivet av MrMuppet:

En hel del spel är faktiskt t.o.m. Vert-:
http://www.wsgf.org/category/screen-change/vert

Ointressant när nästan alla nya spel är Hor+.

Permalänk
Inaktiv
Skrivet av kabex:

Nope, de klarar 400 Hz. Problemet ligger i att det inte finns någon input med >120 Hz, och TV-apparater brukar inte ens ha något som stödjer

Du säger att de klarar 400hz sen skriver du att de inte stöder hz över 60hz. Hur ska du ha det?

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av kol:

Aspect ratio har inget med antal pixlar att göra.

Vi kan likväl jämföra 1680x1050 och 1920x1080 och man inser snart att det inte har med aspect ratio att göra.

Nu är du bara larvig (eller extremt okunnig). Tillverkarna håller sig till de standarder som finns.

http://en.wikipedia.org/wiki/Graphics_display_resolution

16:10 > 16:9

1920 WUXGA > 1920 FHD

2560 WQXGA > 2560 (W)QHD

3840 WQUXGA > 3840 QFHD

7680 WHUXGA > 7680 UHD

Skrivet av kol:

Ointressant när nästan alla nya spel är Hor+.

Det kan du ju tycka om du vill. Likväl är det utvecklarna som bestämmer och om industrin bestämde sig för att pusha 16:10 för PC-monitorer och spel skulle 16:10 expandera på höjden vs 16:9. Men nu pushar industrin för 16:9 (eftersom det är billigare, trots att det är sämre för skrivbordsanvändning).

Permalänk

värt, måste köpa 4 x GTX 680 för att klara komma upp i 144hz i ultra.

Visa signatur

Chassi: Master Cooler Haf X-----Moderboard: Sabertooth Z77-----PSU: Corsair HX 650W-----CPU: Intel I5 2500k @ 4,5Ghz)-----CPU-Cooler: Noctua NH-U12P SE2-----GPU: Gigabyte 680 Winforce OC-----RAM: Ripjaws 16GB 1600mhz-----SSD: Samsung 830-----HDD: 1TB WD

[URL="http://www.inwaves.se[/URL]

Permalänk
Avstängd
Skrivet av MrMuppet:

Nu är du bara larvig.

Tycker det är du som är larvig som håller dig till hemsnickrade definitioner istället för bekräftade.

Läs definitionen av aspect ratio. Det är bara det proportionella förhållandet mellan bredd och längd. Inget annat.

http://en.wikipedia.org/wiki/Display_aspect_ratio

16:10 kan enligt definition inte ha fler pixlar än 16:9 och 16:9 kan enligt definition inte ha fler pixlar än 16:10.