Nvidia och Asus lanserar 500 Hz-skärm

Permalänk
Medlem

Behövs nog Nvidia 5000-serien för att komma upp i den uppdateringsfrekvensen

Permalänk

Äntligen nya skärmar på TN-fronten! Hoppas det dyker upp en 27-tummare snart också

Permalänk
Medlem
Skrivet av Trihxeem:

Snacka för dig själv
Det är som förr när de gjorde reklam för HDTV i vanliga sändningar och de förvärrade bilden för att åskådliggöra skillnaden.
I övrigt: 500Hz måste ju vara långt över vad ett mänskligt öga kan reagera på? Hade varit intressant att se vetenskapliga tester på maximal uppdateringsfrekvens som faktiskt är detekterbar.

Och där kom klassikern "ögat kan inte se XXY". Läs Laxpuddings inlägg kopplat till sänkta latenser. Återkom sedan

Visa signatur

7800X3D
4090 G OC

Permalänk

Idag kommer man upp i 500 fps i t.ex CSGO och säkert ännu mer med nästa generations cpu/gpu:er. Jag ser fram emot att testa detta!

Permalänk
Medlem

Kan ögonen äns se så bra som 500hz?

Permalänk
Medlem
Skrivet av Hattifnatten:

Och där kom klassikern "ögat kan inte se XXY". Läs Laxpuddings inlägg kopplat till sänkta latenser. Återkom sedan

nej

Visa signatur

Att förespråka Mac på Swec är som att förespråka hybridbilar på en raggarträff i Mora.

Permalänk
Medlem
Skrivet av Meizter:

Kan ögonen äns se så bra som 500hz?

Nej synen registrerar med upp till 60 hz, man kan se flimmer upp till 90 Hz, hjärnan registerar det även om du inte "ser" det och hjärnan sorterar bort det åt dig men det kommer med problemet att hjärnan blir trött efter en tid, du upplever det som att du blir varm och mosig i huvudet.

Jag vet inte om en e-sportutövare kan möjligtvis ha fördelar med att rörelserna blir mer smooth i det här läget, men det är inget som har med synen att göra utan i sådana fall är det "blur" så att man inte missar en headshot med några mm i spelet för att man inte kunde se exakta konturer på en motståndare som bunnyhoppar eller så, men större fördelar får man inte.

Vill man slippa motionblur kan man skaffa en modern CRT-skärm, om man pallar att spela i 1024*768 på 19" i 4:3.

Visa signatur

Modermodem: Asus ROG Strix X470-F
Grafikkort: XFX Speedster MERC 319 AMD Radeon™ RX 6800 BLACK
Processor: AMD 2600X
Minne: 48 GB

Permalänk
Medlem
Skrivet av SellahiR:

Som att skriva till ordet "Protein" på diverse artiklar för att det ska sälja till gymråttor. Jag har inte ens användning för mina 144hz i dom spem jg spelar eftersom att min FPS sällan ligger över 100.

Som gymråtta måste jag faktiskt sätta ner foten här. Ett högt proteinintag har väldigt hög vetenskaplig evidens att gynna en person som vill utöka sin muskelmassa (träning överlägset viktigast).

Permalänk
Medlem
Skrivet av bobbeyblade:

Nej synen registrerar med upp till 60 hz, man kan se flimmer upp till 90 Hz, hjärnan registerar det även om du inte "ser" det och hjärnan sorterar bort det åt dig men det kommer med problemet att hjärnan blir trött efter en tid, du upplever det som att du blir varm och mosig i huvudet.

Jag vet inte om en e-sportutövare kan möjligtvis ha fördelar med att rörelserna blir mer smooth i det här läget, men det är inget som har med synen att göra utan i sådana fall är det "blur" så att man inte missar en headshot med några mm i spelet för att man inte kunde se exakta konturer på en motståndare som bunnyhoppar eller så, men större fördelar får man inte.

Vill man slippa motionblur kan man skaffa en modern CRT-skärm, om man pallar att spela i 1024*768 på 19" i 4:3.

Vet inte var du hittat dina siffror, men stämmer gör dom inte iaf. Vet inte iofs inte helt o hållet vad du menar med att synen bara "registrerar med upp till 60hz", men det gör ju helt klart skillnad i mjukhet, latens, aliasing etc att gå upp till 120hz+.
Dessutom kan jag ganska tydligt se 200hz-flimmer.

Permalänk
Moderator
Testpilot
Skrivet av GuessWho:

Någonting någonstans i intervallet 1000-2000Hz kan troligtvis komma någon gång i framtiden.
Men över 2000Hz verkar mer tveksamt om det kommer ?

Att gå upp i tiotals eller hundratals kilohertz för en skärm verkar lika onödigt som att ha högre upplösning än 640K per skärm.

Microsoft forskar på detta och det är främst när det kommer till "touch" så börjar det bli diminishing returns vid 1000 Hz. Med tangentbord och mus har vi redan nått den punkten men som sagt det finns riktigt snabba e-sportare som kan märka skillnad på 240 Hz och 360 Hz men kurvan lär vara brant uppåt för att märka någon skillnad.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av Robiban:

Som gymråtta måste jag faktiskt sätta ner foten här. Ett högt proteinintag har väldigt hög vetenskaplig evidens att gynna en person som vill utöka sin muskelmassa (träning överlägset viktigast).

Protein är bra ja, men du kan gå till en affär o välja mjölk. En vanlig och en protein mjölk...det skiljer typ 1protein...snart står det väl protein banan ellet vanlig 🙄 bara löjligt med sådan märkning på allt. Synd att vissa faller för den typ av försäljning, bara muskler o ingen hjärna kanske😜

Visa signatur

i have a dream...whats your dream?...my dream is to have a dream...

Permalänk
Medlem
Skrivet av Robiban:

Som gymråtta måste jag faktiskt sätta ner foten här. Ett högt proteinintag har väldigt hög vetenskaplig evidens att gynna en person som vill utöka sin muskelmassa (träning överlägset viktigast).

Nu menar jag givetvis i den form att sätta "protein" på tex pudding. Helt plltsligt blir det "ok" att snaska. Känns störtlöjligt med dom få extra G som tillkommer från den originella produkten

Visa signatur

AMD Ryzen 5 5600X | ASUS GeForce RTX 2080 8GB DUAL OC | Corsair Vengeance LPX Black 16GB (2x8GB) / 3200MHz | MSI B450 TOMAHAWK - ATX / B450 | Fractal Design Define C - Svart | Corsair RM750X V2 750W 80+ Gold | Noctua NH-D15 |

Permalänk
Medlem

Var alla exemplen filmade med 1000Hz kamera?

1000/500 = 2.00000
1000/240 = 4.16667
1000/144 = 6,94444

Känns som att 500Hz får en fördel på demofilmen, bara av att vara en jämn divisor till kamerans uppdateringshastighet. För de andra frekvenserna kan man vänta sig en överhoppad frame då och då, varje gång fraktionerna "kommer ikapp".

I alla fall, svårt att själv uppskatta eventuella märkbara skillnader utan att se skärmuppställningarna live i realtid. Det hade varit intressant att se strukturerade blindtester dels med vanliga gamers som får värdera sin upplevelse, dels med E-sportproffs där man mäter prestation i spelet.

Visa signatur

Här hade jag en historik sen 1990-talet, men den blev tillslut för lång. Aktiva maskiner 2022-framåt:
Work/Play/Everythingstation: AMD Epyc 7443p, Pop OS host, Win10 + Linux guests (KVM/Qemu)
Work/Play nr 2: AMD Phenom II 1090t, Debian + Win 10 (dual boot)
Server x3: Epyc 7252 (TrueNAS Core), Atom 2550 (FreeBSD, backup), Opteron 6140 (Ubuntu, off prem backup)
Retrohörna under uppbyggnad: Dual Pentium Pro 200MHz, Pentium P54C 90MHz, Gravis Ultrasound MAX

Permalänk
Bildexpert 📺
Skrivet av Oegat:

Var alla exemplen filmade med 1000Hz kamera?

1000/500 = 2.00000
1000/240 = 4.16667
1000/144 = 6,94444

Känns som att 500Hz får en fördel på demofilmen, bara av att vara en jämn divisor till kamerans uppdateringshastighet. För de andra frekvenserna kan man vänta sig en överhoppad frame då och då, varje gång fraktionerna "kommer ikapp".

Fördelen som syns i bild kommer från effekterna av den högre frekvensen och inget annat. Det man ser i bild är fortfarande så som skärmen ser ut under den millisekund som kameran fångar bilden.

En skärm uppdateras uppifrån och ned rad för rad. Normalt när man filmar detta finns inte någon synkronisering mellan skärmens frame mot kamerans frame. En jämn divisor betyder i detta fall endast att själva gränsen för skärmuppdateringen hamnar idealiskt på exakt samma platser. Samt att dessa positioner då varierar godtyckligt med när man startar kameran under skärmens pågående cykel.

För 500 Hz i skärmen är det två statiska positioner som går alternerande kameraframes vid 1000 fps i kameran. 250 Hz i skärmen hade varit fyra statiska positioner på kamerans 1000 fps. Och så vidare.

För ojämn divisor likt 144 och 240 Hz rör sig uppdateringsgränsen hela tiden. Då kan man vid 240 Hz och frame för frame vid 1000 kamera-fps, se hur panelen gradvis hunnit rita ytterligare några centimeter längre ned. Fyra eller ibland fem kameraframes senare börjar det om uppifrån och ned på nytt. Men varje gräns är nu förskjuten i förhållande till förra skärmuppdateringen.

Enda "fördelen" med jämn divisor är alltså att gränsen för uppdateringen är idealiskt stilla på samma positioner. Ja, förutsatt perfekta oscilleringar i både skärm och kamera, vilket nog inte är fallet.

Det du ser i bild är fortfarande hur panelen ser ut i just det ögonblicket.

Permalänk
Medlem
Skrivet av SellahiR:

Nu menar jag givetvis i den form att sätta "protein" på tex pudding. Helt plltsligt blir det "ok" att snaska. Känns störtlöjligt med dom få extra G som tillkommer från den originella produkten

Ja nu brukar ju just ”protein” pudding direkt från affären faktiskt innehålla mer protein än ”vanlig” pudding samt så är det oftast sockerfritt.

Bröd med märkningen ”protein” kan jag dock verkligen hålla med om. Börjar man läsa baksidan på alla påsar så inser man snabbt att diverse annat bröd innehåller oftast minst lika mycket protein om inte mer.

Skapligt OT dock 😂

Visa signatur

Laptop 1: MB Pro m1
Laptop 2: MSI GT73VR TITAN
PC: gtx 1070 - 4770k

Permalänk
Medlem
Skrivet av Gurrrra:

Ganska konstigt påstående, det är väl ändå inte Nvidias fel att speltillverkarna krämar på med så mycket grafik o du väljer att köra med allt på max?

Vilken märklig kommentar. Vi har haft 4K i över 10 år nu och fortfarande klarar knappt ett 20,000:- kort av att driva den upplösningen i spel. Vad är det som är konstigt i det?
Självklart vill jag spela med maximalt ögongodis. Varför skulle jag inte vilja det?

Visa signatur

Zenith Extreme Alpha | Threadripper 2950X | 3080 Ti TUF OC | 64GB DDR4 3200MHz | 970 EVO Plus 1TB | 3x Red Pro 10 TB @ raid0 | OLED42C2 + 2x U3014

Permalänk
Medlem
Skrivet av Aje:

Vilken märklig kommentar. Vi har haft 4K i över 10 år nu och fortfarande klarar knappt ett 20,000:- kort av att driva den upplösningen i spel. Vad är det som är konstigt i det?
Självklart vill jag spela med maximalt ögongodis. Varför skulle jag inte vilja det?

Ingen som hindrar dig men speltillverkaren bestämmer fortfarande hur dom vill optimera spelet. Vill dom att det ska klara 60fps i 4K så gör dom det. Finns mängder av spel som klarar 4K i 60 fps.

nVidia har inget med det att göra.

Visa signatur

Har en matta som musen bara sviiiiscchar runt på...en svart....som svänger lite i underkant......// MER CO-OP ÅT FOLKET!

Permalänk
Medlem
Skrivet av Aje:

Vilken märklig kommentar. Vi har haft 4K i över 10 år nu och fortfarande klarar knappt ett 20,000:- kort av att driva den upplösningen i spel. Vad är det som är konstigt i det?
Självklart vill jag spela med maximalt ögongodis. Varför skulle jag inte vilja det?

Nvidia tillverkar det absolut bästa som dom kan tillverka med dagens teknik o speltillverkarna väljer/klarar inte att opimera sina spelmotorer för att klara av att köra i 4k/60 med den grafiken dom vill ha o som du väljer att köra med, o du lägger skulden på Nvidia? Är det här man kanske ska lägga en "amen göre bättre själv då!"?

Permalänk
Bildexpert 📺
Skrivet av Aje:

Vilken märklig kommentar. Vi har haft 4K i över 10 år nu och fortfarande klarar knappt ett 20,000:- kort av att driva den upplösningen i spel. Vad är det som är konstigt i det?
Självklart vill jag spela med maximalt ögongodis. Varför skulle jag inte vilja det?

Spelat i 4K med behållning på allt från ett RTX 1070, genom hela redaktionens GPU-arsenal med allt som kom därefter och fram till det 3080Ti jag idag äger själv. Att spel i 4K det skulle vara ett problem är både bokstavligt och bildligt en fråga om inställningen. De bokstavliga men ack så nödvändiga grafikinställningarna i spelen. Samt de bildliga inställningarna och föreställningarna som sitter i huvudet.

När någon påstår att dagens 20.000-kronorskort inte räcker till för 4K, då vet jag att de aldrig ens har försökt. Däremot har de läst ett mantra om och om igen i 10 år att det är en omöjlighet. Kanske läge att testa själv? Bidra med information om hur det fungerar för din spelsmak och vilka kompromisser som behövdes – eller inte behövdes.

I mitt fall hur jag i vissa spel, några år på nacken måste sätta ett övre tak på 4K/120 FPS därför att jag och skärm inte behöver mer. Och hur andra nya, blingfyllda speltitlar med några väl valda High eller Medium håller sig i god form över 4K/60 FPS.

Eller för att ta det som gäller för skärmen i nyheten: 400+ FPS i den typen av spel som skärmen är aktuell för.

Permalänk
Inaktiv
Skrivet av Aje:

Vilken märklig kommentar. Vi har haft 4K i över 10 år nu och fortfarande klarar knappt ett 20,000:- kort av att driva den upplösningen i spel. Vad är det som är konstigt i det?
Självklart vill jag spela med maximalt ögongodis. Varför skulle jag inte vilja det?

Moderna grafikkort klarar absolut 4K utan större problem. "Problemet" är ju att utvecklare helatiden arbetar för att pressa ut så mycket prestanda som möjligt av nya grafikkort, dvs. nya renderingsmetoder, nya mer krävande shaders, osv. Kolla bara på UE5's Lumen, ser fantastiskt ut men kräver också ett väldigt nytt och påkostat grafikkort.

Upplösning är inte allt som påverkar, men det kommer alltid att ha en signifikant effekt på prestanda.

Moderna grafikkort klarar 4K så mycket bättre än äldre grafikkort, och det hade du sett om du spelade äldre titlar med simplare shading i 4K.

Permalänk
Medlem
Skrivet av Laxpudding:

Spelat i 4K med behållning på allt från ett RTX 1070, genom hela redaktionens GPU-arsenal med allt som kom därefter och fram till det 3080Ti jag idag äger själv. Att spel i 4K det skulle vara ett problem är både bokstavligt och bildligt en fråga om inställningen. De bokstavliga men ack så nödvändiga grafikinställningarna i spelen. Samt de bildliga inställningarna och föreställningarna som sitter i huvudet.

När någon påstår att dagens 20.000-kronorskort inte räcker till för 4K, då vet jag att de aldrig ens har försökt. Däremot har de läst ett mantra om och om igen i 10 år att det är en omöjlighet. Kanske läge att testa själv? Bidra med information om hur det fungerar för din spelsmak och vilka kompromisser som behövdes – eller inte behövdes.

I mitt fall hur jag i vissa spel, några år på nacken måste sätta ett övre tak på 4K/120 FPS därför att jag och skärm inte behöver mer. Och hur andra nya, blingfyllda speltitlar med några väl valda High eller Medium håller sig i god form över 4K/60 FPS.

Eller för att ta det som gäller för skärmen i nyheten: 400+ FPS i den typen av spel som skärmen är aktuell för.

God kväll!

Ditt resonemang bygger på att det enda som räknas är upplösningen - att man faktiskt kan spela i 4K. Men du reserverar dig för inställningarna. Visst, drar vi ner på texturer, skuggor mm så flyter allt på hur fint som helst. Men då kan vi lägga ner diskussionen omgående. Det är som att säga att man bor i ett stort hus men utan interiör, men man har iaf ett stort hus. 😊

För mig ska allt lira - högsta möjligt bildkvalitet i 4K. Far Cry 6 tex funkar sådär då. Visst, en tydligt blocker är mängden VRAM, men ändå. När någonting "fungerar" betyder det för mig att vad jag än slänger in i mixen så funkar det. Om det fungerar i 4K gör det så över hela spektrumet av inställningar. Men du har rätt – det är så jag ser på det.

Jag testar själv hela tiden då jag ofta sitter på den senaste hårdvaran för jag älskar teknik och möjligheten att få bästa möjliga upplevelse, därav sitter jag också på ett 3080 Ti.

Trevlig kväll

Visa signatur

Zenith Extreme Alpha | Threadripper 2950X | 3080 Ti TUF OC | 64GB DDR4 3200MHz | 970 EVO Plus 1TB | 3x Red Pro 10 TB @ raid0 | OLED42C2 + 2x U3014

Permalänk
Medlem
Skrivet av anon334363:

Moderna grafikkort klarar absolut 4K utan större problem. "Problemet" är ju att utvecklare helatiden arbetar för att pressa ut så mycket prestanda som möjligt av nya grafikkort, dvs. nya renderingsmetoder, nya mer krävande shaders, osv. Kolla bara på UE5's Lumen, ser fantastiskt ut men kräver också ett väldigt nytt och påkostat grafikkort.

Upplösning är inte allt som påverkar, men det kommer alltid att ha en signifikant effekt på prestanda.

Moderna grafikkort klarar 4K så mycket bättre än äldre grafikkort, och det hade du sett om du spelade äldre titlar med simplare shading i 4K.

Absolut sant! Samtidigt har vi stannat på 4K ganska länge nu och grafikkortens utveckling har inte direkt imponerat. Jag har länge haft känslan att tillverkarna är fat and happy. Potentialen att göra mycket bättre finns (tänk Apple M1) men ändå så väljer man att sitta stilla i båten. Trist tycker jag.

Visa signatur

Zenith Extreme Alpha | Threadripper 2950X | 3080 Ti TUF OC | 64GB DDR4 3200MHz | 970 EVO Plus 1TB | 3x Red Pro 10 TB @ raid0 | OLED42C2 + 2x U3014

Permalänk
Medlem
Skrivet av Gurrrra:

Nvidia tillverkar det absolut bästa som dom kan tillverka med dagens teknik o speltillverkarna väljer/klarar inte att opimera sina spelmotorer för att klara av att köra i 4k/60 med den grafiken dom vill ha o som du väljer att köra med, o du lägger skulden på Nvidia? Är det här man kanske ska lägga en "amen göre bättre själv då!"?

Nej, det tror jag inte alls dom gör. Som med alla andra har dom koll på närmaste konkurrent och anpassar sig därefter. Det är väldigt få som väljer att utmana och göra generationskliven. Men du har helt rätt i att speltillverkarna också är lata. Vi borde kunna få ut mer ur dagens hårdvara. Och ja, hade jag inte haft småbarn hade jag nog gett mig in i spelbranschen.

Visa signatur

Zenith Extreme Alpha | Threadripper 2950X | 3080 Ti TUF OC | 64GB DDR4 3200MHz | 970 EVO Plus 1TB | 3x Red Pro 10 TB @ raid0 | OLED42C2 + 2x U3014

Permalänk
Medlem
Skrivet av Aje:

Ditt resonemang bygger på att det enda som räknas är upplösningen - att man faktiskt kan spela i 4K. Men du reserverar dig för inställningarna. Visst, drar vi ner på texturer, skuggor mm så flyter allt på hur fint som helst. Men då kan vi lägga ner diskussionen omgående. Det är som att säga att man bor i ett stort hus men utan interiör, men man har iaf ett stort hus. 😊

För mig ska allt lira - högsta möjligt bildkvalitet i 4K. Far Cry 6 tex funkar sådär då. Visst, en tydligt blocker är mängden VRAM, men ändå. När någonting "fungerar" betyder det för mig att vad jag än slänger in i mixen så funkar det. Om det fungerar i 4K gör det så över hela spektrumet av inställningar. Men du har rätt – det är så jag ser på det.

Så allt på ultra eller inget alltså? Om då är så polemiserad så har du rätt i att det är svårt att ha en diskussion!
Men jag försöker litegrann iallafall:
Ultrainställningen i många spel är mer av en overkill slider bara för att man kan (eller för att ge nästa generation grafikkort nått att göra typ), snarare än att den ger något man faktiskt märker.
Tex skugginställningar i vissa spel är hopplöst dåligt optimerade: släpper man på allt så kan man få vilken GPU som helst att tanka...
En stor del av poängen med PC är valmöjligheter - varför inte nyttja det?
...
Själv är jag snarare tvärtom: även om jag köpt nytt hyfsat kraftigt kort har jag svårt att maxa alla grafikinställningar, för jag vill inte riska en ryckig upplevelse. (plus att motion blur, depth of field, grain, chromatic abberation osv är effekter jag alltid stänger av iallafall om jag har möjlighet)

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk
Medlem
Skrivet av Aje:

Nej, det tror jag inte alls dom gör. Som med alla andra har dom koll på närmaste konkurrent och anpassar sig därefter. Det är väldigt få som väljer att utmana och göra generationskliven. Men du har helt rätt i att speltillverkarna också är lata. Vi borde kunna få ut mer ur dagens hårdvara. Och ja, hade jag inte haft småbarn hade jag nog gett mig in i spelbranschen.

Så istället för att krossa AMD menar du att Nvidia håller tillbaka? Eller har de en överenskommelse där AMD är lite sämre för att… eh… det gynnar vem?

Att vi ”borde” få ut mer av dagens hårdvara är bara tomt tyckande.

Permalänk
Medlem
Skrivet av Aje:

Nej, det tror jag inte alls dom gör. Som med alla andra har dom koll på närmaste konkurrent och anpassar sig därefter. Det är väldigt få som väljer att utmana och göra generationskliven. Men du har helt rätt i att speltillverkarna också är lata. Vi borde kunna få ut mer ur dagens hårdvara. Och ja, hade jag inte haft småbarn hade jag nog gett mig in i spelbranschen.

Aah, det är la en konspiration alltså!

Permalänk
Inaktiv
Skrivet av Aje:

Absolut sant! Samtidigt har vi stannat på 4K ganska länge nu och grafikkortens utveckling har inte direkt imponerat. Jag har länge haft känslan att tillverkarna är fat and happy. Potentialen att göra mycket bättre finns (tänk Apple M1) men ändå så väljer man att sitta stilla i båten. Trist tycker jag.

Håller inte med. Man får ut så mycket mer visuell fidelitet genom att lägga krutet på nya renderingsmetoder och shaders. Med gamla sorterns shaders kan man säkerligen köra 8K idag utan problem, men varför skulle man göra det när man kan ta fördelarna från nya grafikkort och lägga det på shaders, raytracing osv istället?

Tycker att du missar en hel del av utvecklingen och vart den har tagit vägen. Vi har kommit väldigt långt på kort tid.

Permalänk
Avstängd

Jävlar vad folk har svårt att läsa.

Det är till för proffs som lever på att spela Counter Strike och andra spel.

Dom struntar fullständigt i hur spelet ser ut eller om grafiken är bra.

Permalänk
Medlem

Kan människan ens uppfatta 500 herts? Trodde bara katter och typ rovfåglar klarade av sånt.

Permalänk
Medlem
Skrivet av Laxpudding:

Fördelen som syns i bild kommer från effekterna av den högre frekvensen och inget annat. Det man ser i bild är fortfarande så som skärmen ser ut under den millisekund som kameran fångar bilden.

En skärm uppdateras uppifrån och ned rad för rad. Normalt när man filmar detta finns inte någon synkronisering mellan skärmens frame mot kamerans frame. En jämn divisor betyder i detta fall endast att själva gränsen för skärmuppdateringen hamnar idealiskt på exakt samma platser. Samt att dessa positioner då varierar godtyckligt med när man startar kameran under skärmens pågående cykel.

För 500 Hz i skärmen är det två statiska positioner som går alternerande kameraframes vid 1000 fps i kameran. 250 Hz i skärmen hade varit fyra statiska positioner på kamerans 1000 fps. Och så vidare.

För ojämn divisor likt 144 och 240 Hz rör sig uppdateringsgränsen hela tiden. Då kan man vid 240 Hz och frame för frame vid 1000 kamera-fps, se hur panelen gradvis hunnit rita ytterligare några centimeter längre ned. Fyra eller ibland fem kameraframes senare börjar det om uppifrån och ned på nytt. Men varje gräns är nu förskjuten i förhållande till förra skärmuppdateringen.

Enda "fördelen" med jämn divisor är alltså att gränsen för uppdateringen är idealiskt stilla på samma positioner. Ja, förutsatt perfekta oscilleringar i både skärm och kamera, vilket nog inte är fallet.

Det du ser i bild är fortfarande hur panelen ser ut i just det ögonblicket.

Aha! Ja då faller min spekulation. Jag hade levt med (den felaktiga) föreställningen att skillnaden mellan CRT och LCD var att en CRT-skärm uppdaterar skärmen linje för linje, medan LCD uppdaterar alla pixlar i samma ögonblick. Och att det skulle vara det som gör att LCD ser bra ut vid 60Hz, medan en CRT måste upp till högre frekvenser för att inte flimra alltför märkbart. Men det var alltså fel

Det jag reagerade på först var att 500-Hz exemplen från videodemon var de enda som såg ut att flyta, och tänkte att det kanske berodde på kameran. Min uppdaterade gissning är att det har att göra med hur mycket de skalat ner framerate i demon.

Visa signatur

Här hade jag en historik sen 1990-talet, men den blev tillslut för lång. Aktiva maskiner 2022-framåt:
Work/Play/Everythingstation: AMD Epyc 7443p, Pop OS host, Win10 + Linux guests (KVM/Qemu)
Work/Play nr 2: AMD Phenom II 1090t, Debian + Win 10 (dual boot)
Server x3: Epyc 7252 (TrueNAS Core), Atom 2550 (FreeBSD, backup), Opteron 6140 (Ubuntu, off prem backup)
Retrohörna under uppbyggnad: Dual Pentium Pro 200MHz, Pentium P54C 90MHz, Gravis Ultrasound MAX