Filter simulerar CRT på snabba OLED-skärmar

Permalänk
Medlem
Skrivet av JesperT:

Oled har fortfarande motion blur.
För all del att det är litet problem när man kör med 360hz, men är fortfarande inte perfekt.
Så kan man göra det ännu stabilare och tydligare så är det helt klart välkommet.
Här är en diskussion på reddit i frågan:
https://www.reddit.com/r/Monitors/comments/17s80i6/how_is_it_...

Skrivet av Frispel:

Problemet är att moderna skärmar håller bilden och sedan direkt byter till nästa.

Med black frame insertion så får man en lucka mellan varje bild som gör att hjärnan kan kompensera för vad som borde finnas där emellan vilket gör att man upplever att bilden har ett mer naturligt flyt istället för att vara hackig. Märks tydligast vid exempelvis långsamma panoreringar i film (~24 fps). Då spelar det ingen roll hur många fps skärmen i sig kan klämma ur sig.

Som bieffekt av BFI kan man också maskera eftersläpningar genom att släcka skärmen under perioden man växlar från en bildruta till en annan. Nackdelen är då att vissa upplever flimmer.

Tack för länkarna, nu har man lärt sig något nytt.
Startade ufo-testet på min telefon (120 Hz OLED) och visst såg man skillnad mellan 60Hz med och utan BFI, och BFI är bättre, men det var ju inte bättre än 120Hz, så är det verkligen bättre med 180Hz BFI än 360Hz utan?

Visa signatur

CPU: R7 9800X3D | GPU: Asrock 7900XTX Taichi OC | MB: Asus B650E-I| RAM: 2x32 Kingston Fury @6000MHz CL30|Cooling:Noctua NH-D15 G2|PSU: Phanteks AMP GH 1000W|SSD: Kingston Fury Renegade 2TB + Corsair MP510 4TB |CASE:Streacom DA6 XL Chrome

Permalänk
Medlem
Skrivet av Alexraptor:

Min poäng är att se runt i verkligheten är inte detsamma som att stirra in i en skärm, och att det råder andra förutsättningar som man behöver lösa på andra sätt.

Du har rätt i att den optimala lösningen är att öka frameraten, men tyvärr är teknologin inte där på långa vägar, vare sig vad gäller skärmar eller grafikkort.

CRT teknologin har varit den bäst lämpade som vi har uppfunnit hittils, och för mig personligen i alla fall har plattskärmar varit en olidlig plåga för mina ögon, som aldrig borde uppfunnits.

Nä en skärm så klart inte speciellt naturlig nej, men att titta på en flimrande sådan är än mindre naturligt än en en LCD som jobbar med sample and hold. För personligen så har jag aldrig saknat CRT sen jag gick över till våra nuvarande platta grejer för en 20 år sen eftersom jag verkligen avskyr flimmer, och just CRT-flimret är ju nåt av den värsta typen av flimmer med tanke på dess otroligt korta "puls".

Permalänk
Medlem
Skrivet av Gurrrra:

Skulle inte kalla introducerandet av flimmer för ett bra sätt att reducera rörelseoskärpa. Visst reduceras det, en flimmer är alltid flimmer och i min bok är det aldrig najs, medans vissa tycker det är bättre än rörelseoskärpan. Pros and cons helt enkelt om man inte har det enda rätta sättet för att reducera rörelseoskärpa, nämligen att öka frameraten.

Du får tycka vad du vill, för mig fungerar det bra, tycker persistance blur flimmrar mer än det flimmer som introduceras vid BFI. Helst skulle jag också vilja ha 1000fps självklart, man hoppas ju DLSS-någon-version bumpar upp frame generation till att alltid ligga på skärmens frekvens.

Har du en någorlunda snabb skärm (Själv har jag en 240hz) kan du leka runt med denna så kanske du förstår vad jag menar.

https://www.testufo.com/blackframes#count=8

30fps rakt upponer hoppar fram och tillbaka i mina ögon, medan BFI 7 blank 1 vissible är väldigt skarp, men flimmrar givetvis på annat sätt. Det grabbarna satt ihop är vad jag förstår något som iallafall flimrar mindre, men det är ju absolut trade-offs som får göras.

Men det viktiga i diskussionen är att CRT faktiskt hade väldigt bra rörelseskärpa och det har gått förlorat med introducerandet av sample & hold skärmar. T.o.m gammal film på bio körde ju BFI, kanske av anledningen att det skulle fungera överhuvudtaget men det gav iallafall bi-effekten att det blev bra rörelseskärpa. Jag tror även moderna bio-projektorer kör någon form av BFI.

Det behöver uppmärksammas så att företagen gör något åt det. Att film skulle öka från 24fps är ju typ omöjligt att det skulle hända, så det ligger på display-företagen att lösa. Iofs skulle man väl kunna lägga in astronomiska mängder motion blur i filmer (vilket man ju till viss del gör), men då förloras ju detaljer i bilden istället.

Jag tänker inte gå så långt som AlexRaptor häröver och säga att CRT är bättre än LCD eller OLED överlag (Jag gillar mina 4K skärmar och HDR), men när det gäller rörelseskärpa så är det solkart CRT är bättre.

Men som jag skrev öäver, det här är preferenser. Du hatar flimmer, jag hatar persistance-blur...

Visa signatur

- 5090

Permalänk
Medlem
Skrivet av Gurrrra:

Nä en skärm så klart inte speciellt naturlig nej, men att titta på en flimrande sådan är än mindre naturligt än en en LCD som jobbar med sample and hold. För personligen så har jag aldrig saknat CRT sen jag gick över till våra nuvarande platta grejer för en 20 år sen eftersom jag verkligen avskyr flimmer, och just CRT-flimret är ju nåt av den värsta typen av flimmer med tanke på dess otroligt korta "puls".

Agree to disagree.

Visa signatur

| Corsair Obsidian 500D | Intel Core i7-3770K 3.9GHz med Corsair iCUE H115i Elite Capellix XT | Asus Z77 Sabertooth | Corsair Vengeance Pro Black 4x8GB 1866MHz CL9 | 2x EVGA GeForce GTX TITAN X 12GB, SLI | X-Fi Titanium Fatal1ty Pro | Samsung 870 EVO 2TB, Samsung 870 EVO 1TB, 2x Seagate Barracuda 2TB | Corsair AX860i | PG279Q | Windows XP/10 Dual-Boot |

Permalänk
Medlem
Skrivet av Lussarn:

Du får tycka vad du vill, för mig fungerar det bra, tycker persistance blur flimmrar mer än det flimmer som introduceras vid BFI. Helst skulle jag också vilja ha 1000fps självklart, man hoppas ju DLSS-någon-version bumpar upp frame generation till att alltid ligga på skärmens frekvens.

Har du en någorlunda snabb skärm (Själv har jag en 240hz) kan du leka runt med denna så kanske du förstår vad jag menar.

https://www.testufo.com/blackframes#count=8

30fps rakt upponer hoppar fram och tillbaka i mina ögon, medan BFI 7 blank 1 vissible är väldigt skarp, men flimmrar givetvis på annat sätt. Det grabbarna satt ihop är vad jag förstår något som iallafall flimrar mindre, men det är ju absolut trade-offs som får göras.

Men det viktiga i diskussionen är att CRT faktiskt hade väldigt bra rörelseskärpa och det har gått förlorat med introducerandet av sample & hold skärmar. T.o.m gammal film på bio körde ju BFI, kanske av anledningen att det skulle fungera överhuvudtaget men det gav iallafall bi-effekten att det blev bra rörelseskärpa. Jag tror även moderna bio-projektorer kör någon form av BFI.

Det behöver uppmärksammas så att företagen gör något åt det. Att film skulle öka från 24fps är ju typ omöjligt att det skulle hända, så det ligger på display-företagen att lösa. Iofs skulle man väl kunna lägga in astronomiska mängder motion blur i filmer (vilket man ju till viss del gör), men då förloras ju detaljer i bilden istället.

Jag tänker inte gå så långt som AlexRaptor häröver och säga att CRT är bättre än LCD eller OLED överlag (Jag gillar mina 4K skärmar och HDR), men när det gäller rörelseskärpa så är det solkart CRT är bättre.

Men som jag skrev öäver, det här är preferenser. Du hatar flimmer, jag hatar persistance-blur...

Att rörelseoskärpa skulle vara flimmer är extremt motsägelsefullt så det stämmer ju inte alls. Men jag respekterar däremor din åsikt att du föredrar flimmer framför oskärpan!
Och så håller jag ändå med dig om att sample and hold i framför allt panoreringar i 24fps filmer kan vara oerhört distraherande, det är faktiskt en av grejerna jag ogillar med min OLEd, däremot vill jag inte fixa det med BFI, utan istället nån slags simulering av långsamma pixlar, alltså nån slags kontrollerad fade. Men ja, egentligen är ju lösningen högre framerate även där, men då försvinner hela den känslan vi förknippar med "film". Smått olösligt problem alltså

Skrivet av Alexraptor:

Agree to disagree.

Njä vet faktiskt inte om det här handlar om att hålla med eller inte Skulle säga att rent objektivt så är sample and hold naturligare.
CRT-flimmer så är så gott som bara en pixel igång åt gången, nåt liknande finns inte alls i naturen, nästa steg är BFI med hela rutan igång med svart imellan (så kallad PWM där tiden bild kontra svart är pulsbredden), sen är sample and hold snäppet närmare natur, för att sen slår vi på filtrering för att sudda ut/blurra dom tydliga sample and hold stegen, alltså att sakta fadea mellan dom enskilda framesen likt en långsam LCD.
Däremot det som kan upplevas som "naturligare" med flimmer är ju den ökade tracking-skärpan, men den skärpan är lika onaturlig som en bild helt utan antialiasing eftersom aliasing är ett 100% digitalt (aka onaturligt) fel.

.. men jag förstår ändå hur du tänker så kan hålla med om att inte hålla med om det

Permalänk
Medlem
Skrivet av Gurrrra:

Njä vet faktiskt inte om det här handlar om att hålla med eller inte Skulle säga att rent objektivt så är sample and hold naturligare.
CRT-flimmer så är så gott som bara en pixel igång åt gången, nåt liknande finns inte alls i naturen, nästa steg är BFI med hela rutan igång med svart imellan (så kallad PWM där tiden bild kontra svart är pulsbredden), sen är sample and hold snäppet närmare natur, för att sen slår vi på filtrering för att sudda ut/blurra dom tydliga sample and hold stegen, alltså att sakta fadea mellan dom enskilda framesen likt en långsam LCD.
Däremot det som kan upplevas som "naturligare" med flimmer är ju den ökade tracking-skärpan, men den skärpan är lika onaturlig som en bild helt utan antialiasing eftersom aliasing är ett 100% digitalt (aka onaturligt) fel.

.. men jag förstår ändå hur du tänker så kan hålla med om att inte hålla med om det

Rent objektivt så skulle jag säga att du har fel.

Generellt sett så är objekt som vi ser i "naturen" är resultatet av reflektion, inte emission som det är med en skärm. D.v.s att två fotoner som träffar ett objekt i rörelse, kommer aldrig att träffa och reflekteras från exakt samma punkt.

Visa signatur

| Corsair Obsidian 500D | Intel Core i7-3770K 3.9GHz med Corsair iCUE H115i Elite Capellix XT | Asus Z77 Sabertooth | Corsair Vengeance Pro Black 4x8GB 1866MHz CL9 | 2x EVGA GeForce GTX TITAN X 12GB, SLI | X-Fi Titanium Fatal1ty Pro | Samsung 870 EVO 2TB, Samsung 870 EVO 1TB, 2x Seagate Barracuda 2TB | Corsair AX860i | PG279Q | Windows XP/10 Dual-Boot |

Permalänk
Hedersmedlem
Skrivet av Alexraptor:

Rent objektivt så skulle jag säga att du har fel.

Generellt sett så är objekt som vi ser i "naturen" är resultatet av reflektion, inte emission som det är med en skärm. D.v.s att två fotoner som träffar ett objekt i rörelse, kommer aldrig att träffa och reflekteras från exakt samma punkt.

Tillräckligt exakt att människor inte har synskärpan att märka någon skillnad, dock. En ljuskälla på 1 lumen avger i grova drag 10^16 fotoner per sekund vad jag kan hitta (källa). Oavsett om det är reflekterat från olika punkter eller inte så kommer det sannolikt handla om miljarder fotoner per sekund för varje del av synfältet vi kan urskilja.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem

Saknar rörelseskärpan från min Panasonic plasma när jag använder min OLED. Skillnaden blir tydlig då jag har kvar min plasma som sovrums-TV. Har även en CRT här hemma och även den har fantastisk rörelseskärpa. BFI i 60/120 Hz på OLED:en är betydligt jobbigare för ögonen och något jag sällan använder.

Visa signatur

Vardagsrum: LG C1 OLED 65" | Philips 28” CRT | OPPO 203 | Analogue Pocket + Dock | PS5 | XB Series X | N Switch OLED | XB One X | Wii U | PS3 | XB360 | Xbox | GameCube + GC Loader | PS2 + FMCB | Dreamcast | N64 + Everdrive | PS1 + PSIO | Saturn | Mega Drive Mini 2 | SNES Mini | Mega Drive Mini | NES Mini | HTPC: 3770K/GTX970/16GB DDR3/Loque Ghost S1

Permalänk
Medlem

Jag kan ingenting om det här, men kan det vara skillnad på datorgenererad grafik och film inspelad med kamera av en duktig kameraman? När man genererar datorgrafik, t ex i ett spel eller när man scrollar en websida etc, blir det en serie "ögonblicksbilder" med perfekt skärpa. Men när man spelar in film med en kamera med lite högre produktionsvärde-sammanhang (dvs inte mobiltelefoner och liknande) brukar man fånga ljus på halva bilduppdateringsfrekvensen. Om man t ex spelar in i 50 Hz är varje bild 20 millisekunder, och man fångar då ljus under 10 millisekunder. Det kallas "180 graders shutter-angle", eller "1/100 shutter time".

Det gör att bilderna får en naturlig rörelseoskärpa och upplevs "mjukare".

Jag skulle kunna tänka mig att black frame insertion är mer fördelaktigt på datorgenererad grafik och mindre så på film? Å andra sidan verkar det ännu bättre att generera fler bilder emellan, om man har tillräckligt med prestanda för det... Fast det kan väl lika gärna vara tvärt om, eller inte göra någon skillnad. Svårt att tänka ut teoretiskt vad som upplevs bäst, det är ju oftast något man får pröva sig fram till.

Permalänk
Medlem
Skrivet av cyklonen:

"Fördelen" med en gammal CRT är att den har så bedrövligt dålig skärpa att pixliga kanter och pixelmönsterskapade färgtoner suddas ut och ser jämna ut. Jag minns själv vilken visuell chock det var när jag spelade några spel från barndomens Amiga via TV, men på en modern skärm med skarpa pixlar. Vissa saker som jag då tyckte var skitsnygga såg bedrövliga ut på en modern skärm.

Nja, nu blandar du nog ihop hur en TV var kontra en monitor. En TV gjorde att allt blir blurry, men en bra monitor från 90-talet hade knivskarpa pixlar.

Visa signatur

Processor: Motorola 68000 | Klockfrekvens: 7,09 Mhz (PAL) | Minne: 256 kB ROM / 512 kB RAM | Bussbredd: 24 bit | Joystick: Tac2 | Operativsystem: Amiga OS 1.3

Permalänk
Medlem
Skrivet av Lussarn:

Du får tycka vad du vill, för mig fungerar det bra, tycker persistance blur flimmrar mer än det flimmer som introduceras vid BFI. Helst skulle jag också vilja ha 1000fps självklart, man hoppas ju DLSS-någon-version bumpar upp frame generation till att alltid ligga på skärmens frekvens.

Har du en någorlunda snabb skärm (Själv har jag en 240hz) kan du leka runt med denna så kanske du förstår vad jag menar.

https://www.testufo.com/blackframes#count=8

30fps rakt upponer hoppar fram och tillbaka i mina ögon, medan BFI 7 blank 1 vissible är väldigt skarp, men flimmrar givetvis på annat sätt. Det grabbarna satt ihop är vad jag förstår något som iallafall flimrar mindre, men det är ju absolut trade-offs som får göras.

Men det viktiga i diskussionen är att CRT faktiskt hade väldigt bra rörelseskärpa och det har gått förlorat med introducerandet av sample & hold skärmar. T.o.m gammal film på bio körde ju BFI, kanske av anledningen att det skulle fungera överhuvudtaget men det gav iallafall bi-effekten att det blev bra rörelseskärpa. Jag tror även moderna bio-projektorer kör någon form av BFI.

Det behöver uppmärksammas så att företagen gör något åt det. Att film skulle öka från 24fps är ju typ omöjligt att det skulle hända, så det ligger på display-företagen att lösa. Iofs skulle man väl kunna lägga in astronomiska mängder motion blur i filmer (vilket man ju till viss del gör), men då förloras ju detaljer i bilden istället.

Jag tänker inte gå så långt som AlexRaptor häröver och säga att CRT är bättre än LCD eller OLED överlag (Jag gillar mina 4K skärmar och HDR), men när det gäller rörelseskärpa så är det solkart CRT är bättre.

Men som jag skrev öäver, det här är preferenser. Du hatar flimmer, jag hatar persistance-blur...

Största problemet med BFI är ju att man tappar så nycket ljusstyrka, speciellt under vintern behövs det mycket ljus för att hålla säsongs depressionnen stången. Har aldrig upplevt att CRTs eller BFI skulle bidra till en skarpare eller "bättre" bild, snarare gömmer dom detta genom att intruducera andra distraherande effekter. Tror nog att BFI, CRTs och 24 FPS är mer kopplat till nostalig än några fördelar alls.

Vänta tills dom som växt upp med 50 FPS TV program och 60 FPS Youtube och sociala medier blir i 25-35 års åldern, då lär 50-60 FPS innom film bli standard. Det handlar om att bli van och att få in film direktörer och kritiker som inte jagar nostalgi helatiden. Själv suktar jag efter 120 FPS film 🎥, där har vi verklighetstroget material 😮‍💨🙂‍↕️ Vill inte att film ska göras oskarpt, hackigt och flera gånger sämre än vad kameror kan mer...vi måste gå vidare förr eller senare.

Kommentarerna i denna tråd är nog ett starkt tecken att medelåldern här börjar närma sig 40+ 🤭

stavfel
Permalänk
Medlem
Skrivet av talonmas:

Nja, nu blandar du nog ihop hur en TV var kontra en monitor. En TV gjorde att allt blir blurry, men en bra monitor från 90-talet hade knivskarpa pixlar.

Man fick ju nog välja lite där också, ljusstark monitor eller ljussvag men snabb respons. Saknar verkligen inte att man behövde släcka lampan för att kunna se med någorlunda kontrast.

Permalänk
Medlem
Skrivet av Lussarn:

Du får tycka vad du vill, för mig fungerar det bra, tycker persistance blur flimmrar mer än det flimmer som introduceras vid BFI. Helst skulle jag också vilja ha 1000fps självklart, man hoppas ju DLSS-någon-version bumpar upp frame generation till att alltid ligga på skärmens frekvens.

Har du en någorlunda snabb skärm (Själv har jag en 240hz) kan du leka runt med denna så kanske du förstår vad jag menar.

https://www.testufo.com/blackframes#count=8

30fps rakt upponer hoppar fram och tillbaka i mina ögon, medan BFI 7 blank 1 vissible är väldigt skarp, men flimmrar givetvis på annat sätt. Det grabbarna satt ihop är vad jag förstår något som iallafall flimrar mindre, men det är ju absolut trade-offs som får göras.

Men det viktiga i diskussionen är att CRT faktiskt hade väldigt bra rörelseskärpa och det har gått förlorat med introducerandet av sample & hold skärmar. T.o.m gammal film på bio körde ju BFI, kanske av anledningen att det skulle fungera överhuvudtaget men det gav iallafall bi-effekten att det blev bra rörelseskärpa. Jag tror även moderna bio-projektorer kör någon form av BFI.

Det behöver uppmärksammas så att företagen gör något åt det. Att film skulle öka från 24fps är ju typ omöjligt att det skulle hända, så det ligger på display-företagen att lösa. Iofs skulle man väl kunna lägga in astronomiska mängder motion blur i filmer (vilket man ju till viss del gör), men då förloras ju detaljer i bilden istället.

Jag tänker inte gå så långt som AlexRaptor häröver och säga att CRT är bättre än LCD eller OLED överlag (Jag gillar mina 4K skärmar och HDR), men när det gäller rörelseskärpa så är det solkart CRT är bättre.

Men som jag skrev öäver, det här är preferenser. Du hatar flimmer, jag hatar persistance-blur...

Är mer historisk varför 24 bilder per sekund blivit standard. Var helt enkelt man nått gränsen mellan still bild och rörlig bild. Varför inte högre är troligen för det är mekaniskt delar och filmen kom på rulle.

De testade 48 för lord of the rings (om jag inte har fel). Det blev klagomål att det inte kändes naturligt. Men hade ju varit bättre än stanna på 24.

Sen kan man ju fråga sig varför 60hz varit någon form av standard, är ju rätt lågt egentligen. Sen att man på konsol ska acceptera 30 är ju komiskt.

För just spel så har de lagts på mer Blur och blivit sämre kvalite än för par år sen.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av talonmas:

Nja, nu blandar du nog ihop hur en TV var kontra en monitor. En TV gjorde att allt blir blurry, men en bra monitor från 90-talet hade knivskarpa pixlar.

Inte native. Jag hade två bra CRT-monitorer under 00-talet. Visst var de skarpare än en gammal TV från 80-talet, men det man såg var ett lätt utsmetat mönster av RGB-ränder, inga pixlar.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Hedersmedlem
Skrivet av Broken-arrow:

Är mer historisk varför 24 bilder per sekund blivit standard. Var helt enkelt man nått gränsen mellan still bild och rörlig bild. Varför inte högre är troligen för det är mekaniskt delar och filmen kom på rulle.

De testade 48 för lord of the rings (om jag inte har fel). Det blev klagomål att det inte kändes naturligt. Men hade ju varit bättre än stanna på 24.

Sen kan man ju fråga sig varför 60hz varit någon form av standard, är ju rätt lågt egentligen. Sen att man på konsol ska acceptera 30 är ju komiskt.

För just spel så har de lagts på mer Blur och blivit sämre kvalite än för par år sen.

60 hz flimrar i synk med lamporna i USA, precis som 50hz gör i sverige, europa och alla länder som använde PAL-standarden istället för NTSC. Elnätet fick bestämma.

Visa signatur

I am a prototype for a much larger s󠅄󠅘󠅕󠄐󠅞󠅕󠅕󠅔󠄐󠅤󠅟󠄐󠅒󠅕󠄐󠅟󠅒󠅣󠅕󠅢󠅦󠅕󠅔󠄐󠅑󠅞󠅔󠄐󠅥󠅞󠅔󠅕󠅢󠅣󠅤󠅟󠅟󠅔󠄐󠅧󠅑󠅣󠄐󠅟󠅞󠅓󠅕󠄐󠅣󠅑󠅤󠅙󠅣󠅖󠅙󠅕󠅔󠄐󠅒󠅩󠄐󠄷󠅟󠅔󠄞󠄐󠄾󠅟󠅧󠄐󠅧󠅕󠄐󠅓󠅑󠅞󠄐󠅙󠅝󠅠󠅜󠅕󠅝󠅕󠅞󠅤󠄐󠅤󠅘󠅕󠄐󠅣󠅑󠅝󠅕󠄐󠅖󠅥󠅞󠅓󠅤󠅙󠅟󠅞󠅑󠅜󠅙󠅤󠅩󠄐󠅧󠅙󠅤󠅘󠄐󠅔󠅑󠅤󠅑󠄝󠅝󠅙󠅞󠅙󠅞󠅗󠄐󠅑󠅜󠅗󠅟󠅢󠅙󠅤󠅘󠅝󠅣󠄞ystem

Permalänk

Mest intressanta funkar pickan till Duck Hunt med denna tekniken?
Annars behöver man en CRT skärm för att den ska funka.
Ja ett spel till Nintendo från 1984.

Permalänk
Medlem
Skrivet av Broken-arrow:

Är mer historisk varför 24 bilder per sekund blivit standard. Var helt enkelt man nått gränsen mellan still bild och rörlig bild. Varför inte högre är troligen för det är mekaniskt delar och filmen kom på rulle.

De testade 48 för lord of the rings (om jag inte har fel). Det blev klagomål att det inte kändes naturligt. Men hade ju varit bättre än stanna på 24.

Sen kan man ju fråga sig varför 60hz varit någon form av standard, är ju rätt lågt egentligen. Sen att man på konsol ska acceptera 30 är ju komiskt.

För just spel så har de lagts på mer Blur och blivit sämre kvalite än för par år sen.

Jag älskade 48fps, såg dom flera gånger. Men kanske största anledningen till att det kommer så få high framerate filmer är kostnad. När framerate går upp kan man ta ner motion blur och helt plötsligt börjar proppar och smink synas bättre och det drar iväg i pengar när allt måste förbättras. Prova och slå på motion interpolation på en vanlig TV med 24fps material. Även det gör det mycket enklare att hänga med i rörelser och detaljer syns mycket bättre. Speciellt när det går undan. Men det ser som sagt inte ut som traditionell film.

Visa signatur

- 5090

Permalänk
Medlem
Skrivet av Lussarn:

Det behöver uppmärksammas så att företagen gör något åt det. Att film skulle öka från 24fps är ju typ omöjligt att det skulle hända, så det ligger på display-företagen att lösa. Iofs skulle man väl kunna lägga in astronomiska mängder motion blur i filmer (vilket man ju till viss del gör), men då förloras ju detaljer i bilden istället.

Skrivet av Broken-arrow:

Är mer historisk varför 24 bilder per sekund blivit standard. Var helt enkelt man nått gränsen mellan still bild och rörlig bild. Varför inte högre är troligen för det är mekaniskt delar och filmen kom på rulle.

De testade 48 för lord of the rings (om jag inte har fel). Det blev klagomål att det inte kändes naturligt. Men hade ju varit bättre än stanna på 24.

Sen kan man ju fråga sig varför 60hz varit någon form av standard, är ju rätt lågt egentligen. Sen att man på konsol ska acceptera 30 är ju komiskt.

För just spel så har de lagts på mer Blur och blivit sämre kvalite än för par år sen.

Jag såg Hobbit i HFR med 48 FPS.
Jag tyckte det fungerade bra.
Kände inget behov av att ha sämre flyt.

Förutom storfilmer finns det ju annat som filmas och där kan det ibland vara 60 FPS eller i vissa fall kanske ännu högre.
Jag har inga problem med det.

Kan förstå att när de första biograferna byggdes och när första TV började säljas och sånt att det inte hade varit realistiskt med film i 100 FPS eller dylikt.

Jag hade inte sagt nej till film i 120 FPS om det filmats och redigerats med det från början så det inte blir konstig felsynkronisering eller dylikt.

Problemet hade väl mest varit att filstorlekar drar iväg så antingen blir det mycket att streama över streamingtjänser eller om man ska ha film på BluRay eller liknande så får det vara skivor som rymmer mycket.

Annars är det ju inte speciellt svårt att hitta en datorskärm som klarar över 120Hz idag och även många nya TV klarar 120Hz.
Så för den sakens skull hade det väl inte varit några större problem.

Problemet är väl mestadels att det blir så mycket data att distribuera.

Permalänk
Medlem

Lite OT, men man kan inte filma i hur hög bildfrekvens som helst utan att det får svåra konsekvenser för bildkvaliteten. Den kortaste möjliga exponeringstiden är inversen av bildfrekvensen, så för 48 bilder per sekund blir den teoretiskt kortaste exponeringstiden 1/48 sekund. För att få en korrekt exponering på kortare tid krävs ljusstarkare optik och/eller en ljuskänsligare film/sensor. Ljusstarkare optik är dyr, tung och svårhanterlig. En ljuskänsligare film/sensor, eller en film/sensor som arbetar i ett högre känslighetsläge, kommer att ha en högre brusnivå och sämre bildkvalitet generellt än om ljuset är bättre.

I dag är det nog förhållandevis mycket enklare eftersom elektroniska sensorer är känsligare än fotografisk film, men allt som spelats/spelas in på riktig film är handikappat av det.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem
Skrivet av Alexraptor:

Rent objektivt så skulle jag säga att du har fel.

Generellt sett så är objekt som vi ser i "naturen" är resultatet av reflektion, inte emission som det är med en skärm. D.v.s att två fotoner som träffar ett objekt i rörelse, kommer aldrig att träffa och reflekteras från exakt samma punkt.

Fast det har jag inte, simple as that
Att skärmar är ganska onaturliga stämmer såklart, men hur nånting på skärmen förmedlas kan vara mer eller mindre naturligt, och där är en kontinuerlig ström av ljus naturligare än korta pulser med ett kontinuerligt intervall. Så om vi nångång ska få skärmar som verkligen är som att "titta genom ett fönster" så kommer det vara utan nåt slags flimmer, men då vid flera tusen FPS.

Permalänk
Hedersmedlem
Skrivet av cyklonen:

Lite OT, men man kan inte filma i hur hög bildfrekvens som helst utan att det får svåra konsekvenser för bildkvaliteten. Den kortaste möjliga exponeringstiden är inversen av bildfrekvensen, så för 48 bilder per sekund blir den teoretiskt kortaste exponeringstiden 1/48 sekund. För att få en korrekt exponering på kortare tid krävs ljusstarkare optik och/eller en ljuskänsligare film/sensor. Ljusstarkare optik är dyr, tung och svårhanterlig. En ljuskänsligare film/sensor, eller en film/sensor som arbetar i ett högre känslighetsläge, kommer att ha en högre brusnivå och sämre bildkvalitet generellt än om ljuset är bättre.

I dag är det nog förhållandevis mycket enklare eftersom elektroniska sensorer är känsligare än fotografisk film, men allt som spelats/spelas in på riktig film är handikappat av det.

Enligt youtubeuniversitetet jag gått på ska man helst halvera slutartiden kontra ”film”hastigheten, alltså 1/50 för 25 b/s, 1/60 för 30 b/s osv, för att rörelser ska uppfattas som mjuka.

Vilket i så fall skulle göra ekvationen ännu besvärligare att få ihop.

Visa signatur

I am a prototype for a much larger s󠅄󠅘󠅕󠄐󠅞󠅕󠅕󠅔󠄐󠅤󠅟󠄐󠅒󠅕󠄐󠅟󠅒󠅣󠅕󠅢󠅦󠅕󠅔󠄐󠅑󠅞󠅔󠄐󠅥󠅞󠅔󠅕󠅢󠅣󠅤󠅟󠅟󠅔󠄐󠅧󠅑󠅣󠄐󠅟󠅞󠅓󠅕󠄐󠅣󠅑󠅤󠅙󠅣󠅖󠅙󠅕󠅔󠄐󠅒󠅩󠄐󠄷󠅟󠅔󠄞󠄐󠄾󠅟󠅧󠄐󠅧󠅕󠄐󠅓󠅑󠅞󠄐󠅙󠅝󠅠󠅜󠅕󠅝󠅕󠅞󠅤󠄐󠅤󠅘󠅕󠄐󠅣󠅑󠅝󠅕󠄐󠅖󠅥󠅞󠅓󠅤󠅙󠅟󠅞󠅑󠅜󠅙󠅤󠅩󠄐󠅧󠅙󠅤󠅘󠄐󠅔󠅑󠅤󠅑󠄝󠅝󠅙󠅞󠅙󠅞󠅗󠄐󠅑󠅜󠅗󠅟󠅢󠅙󠅤󠅘󠅝󠅣󠄞ystem

Permalänk
Medlem
Skrivet av cyklonen:

Lite OT, men man kan inte filma i hur hög bildfrekvens som helst utan att det får svåra konsekvenser för bildkvaliteten. Den kortaste möjliga exponeringstiden är inversen av bildfrekvensen, så för 48 bilder per sekund blir den teoretiskt kortaste exponeringstiden 1/48 sekund. För att få en korrekt exponering på kortare tid krävs ljusstarkare optik och/eller en ljuskänsligare film/sensor. Ljusstarkare optik är dyr, tung och svårhanterlig. En ljuskänsligare film/sensor, eller en film/sensor som arbetar i ett högre känslighetsläge, kommer att ha en högre brusnivå och sämre bildkvalitet generellt än om ljuset är bättre.

I dag är det nog förhållandevis mycket enklare eftersom elektroniska sensorer är känsligare än fotografisk film, men allt som spelats/spelas in på riktig film är handikappat av det.

Ja alltså du får ju öka gainen/ISO ju snabbare bildfrekvens vilket gör att det blir sämre bildkvalitet per frame, men iom att varje frame också visas kortare tid så blir inte det bruset lika tydligt heller tack vare våran persistence of vision.

Sen iofs om man ska filma enligt Nyqvists alla regler för att inte få någon temporal aliasing så _måste_ man sampla över flera frames då rörelseoskärpa är antialiasing, vilket går att göra genom blanda ihop nuvarande framen med både den bakom och framför, eller än bättre med oversampling, alltså filma i högre framerate än man ska visa i och sen filtrera det på bästa sätt

Permalänk
Medlem
Skrivet av Aphex:

Enligt youtubeuniversitetet jag gått på ska man helst halvera slutartiden kontra ”film”hastigheten, alltså 1/50 för 25 b/s, 1/60 för 30 b/s osv, för att rörelser ska uppfattas som mjuka.

Vilket i så fall skulle göra ekvationen ännu besvärligare att få ihop.

Den regeln ger jag inte mycket för. En kvarleva från tiden med mekaniska slutare i långsamma gamla filmkameror. Den fyller ingen funktion i moderna sammanhang.
Tvärt om blir det mjukare rörelser ju längre slutartid man använder, åtminstone tills slutartiderna blir så långa att allt blir en sörja av svepande mönster, men så länge man jobbar med typiska bildfrekvenser är det ingen risk för normala motiv.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem
Skrivet av cyklonen:

"Fördelen" med en gammal CRT är att den har så bedrövligt dålig skärpa att pixliga kanter och pixelmönsterskapade färgtoner suddas ut och ser jämna ut. Jag minns själv vilken visuell chock det var när jag spelade några spel från barndomens Amiga via TV, men på en modern skärm med skarpa pixlar. Vissa saker som jag då tyckte var skitsnygga såg bedrövliga ut på en modern skärm.

En del spel använde sig av detta för att skapa effekter, några kända exempler:
(klicka på bilderna)

Sonic vattenfall:

Transparency:

I retroarch kan man lägga på CRT-filter, jag rekommenderar "Guest Advanced" som också har många justeringsmöjligheter.

Permalänk
Medlem
Skrivet av Broken-arrow:

Är mer historisk varför 24 bilder per sekund blivit standard. Var helt enkelt man nått gränsen mellan still bild och rörlig bild. Varför inte högre är troligen för det är mekaniskt delar och filmen kom på rulle.

De testade 48 för lord of the rings (om jag inte har fel). Det blev klagomål att det inte kändes naturligt. Men hade ju varit bättre än stanna på 24.

Sen kan man ju fråga sig varför 60hz varit någon form av standard, är ju rätt lågt egentligen. Sen att man på konsol ska acceptera 30 är ju komiskt.

För just spel så har de lagts på mer Blur och blivit sämre kvalite än för par år sen.

Att 50/60 Hz blev standard beror på elnätet. Elektronstrålen i ett CRT avlänkas mha magnetfält vilket gör att ett yttre läckfält från tex en transformator påverkar strålens position på skärmen. Har man då samma bildfrekvens som nätfrekvens blir effekten att bilden blir lite sned/skev istället för att fladdra med skillnadsfrekvensen vilket inte är lika störande.

Så billigare att tillverka monitorer då man inte behöver skärma lika mycket.

Permalänk
Medlem
Skrivet av Kriistoffer:

En del spel använde sig av detta för att skapa effekter, några kända exempler:
(klicka på bilderna)

Sonic vattenfall:

<Uppladdad bildlänk>

Transparency:

<Uppladdad bildlänk>

I retroarch kan man lägga på CRT-filter, jag rekommenderar "Guest Advanced" som också har många justeringsmöjligheter.

I Lemmings på EGA skärm så gjorde man tex snygga tegelmurar med tex 5 rödbruna pixel följt av 1 svart pixel för murbruk, följt av 5 rödbruna... Murbruket till nästa rad tegelstenar var mellanrummet mellan scan-raderna på skärmen. Blev inte alls lika snyggt om man körde på modernare maskin med plattskärm.

Permalänk
Skrivet av Lussarn:

Jag älskade 48fps, såg dom flera gånger. Men kanske största anledningen till att det kommer så få high framerate filmer är kostnad. När framerate går upp kan man ta ner motion blur och helt plötsligt börjar proppar och smink synas bättre och det drar iväg i pengar när allt måste förbättras. Prova och slå på motion interpolation på en vanlig TV med 24fps material. Även det gör det mycket enklare att hänga med i rörelser och detaljer syns mycket bättre. Speciellt när det går undan. Men det ser som sagt inte ut som traditionell film.

Motion interpolation på TVn är det första jag slår av, så otroligt mycket flimmer när det är nånting på skärmen som rör sig snabbare än en snigel. Supersnyggt i demo-läge eller "långsamma" filmer, men så fort det är lite mer som händer eller svepande rörelse så flimrar det på rejält.
För mig

HDTVTest på youtube testar TV-apparater in på pixlarna hade en video med guider för alla stora tillverkare hur man fick TV-inställningarna till det bättre.