Nvidia demonstrerar 1 700 Hz-skärmpanel under GTC 2016

Permalänk
Medlem
Skrivet av GuessWho:

Undrar vad för grafikkort som skulle behövas för 1700fps i 8K upplösning

Ett Titan X överklockat till 161,9Ghz tror jag, om jag räknade rätt. Det gjorde jag säkert inte för klockan är 03:45 och även dagtid vet jag knappt vad jag pratar om.

Fusionsreaktorn för att driva skiten får du på köpet.

Visa signatur

Bara fanboys kallar folk för fanboy!

Permalänk
Avstängd

Skulle vara trevligt om någon seriös testare kunde få händerna på en dylik skärm och utföra tester med några professionella gamers för att utvärdera huruvida de ö.h.t upplevde någon skillnad mellan 600Hz (vilket är ungefär den uppdateringsfrekvens vid vilken stridspiloter kan uppfatta och identifiera en enda hastigt visad bildruta, enligt något test jag läst... Eller var det kanske runt 200?) och 1700Hz.

Dagens grafikkort skulle själkvklart aldrig orka rendera ett modernt spel i den frekvensen, men huruvida de skulle klara av att spela upp en förrenderad animation konverterad till ett vanligt videoklipp är en helt annan sak.
Sedan krävs det förstås en kabel som kan hantera det också.

Vore trevligt om detta i framtiden ger upphov till fiberoptiska skärmkablar

Permalänk
Medlem
Skrivet av Ricerunner:

Skulle vara trevligt om någon seriös testare kunde få händerna på en dylik skärm och utföra tester med några professionella gamers för att utvärdera huruvida de ö.h.t upplevde någon skillnad mellan 600Hz (vilket är ungefär den uppdateringsfrekvens vid vilken stridspiloter kan uppfatta och identifiera en enda hastigt visad bildruta, enligt något test jag läst... Eller var det kanske runt 200?) och 1700Hz.

Dagens grafikkort skulle själkvklart aldrig orka rendera ett modernt spel i den frekvensen, men huruvida de skulle klara av att spela upp en förrenderad animation konverterad till ett vanligt videoklipp är en helt annan sak.
Sedan krävs det förstås en kabel som kan hantera det också.

Vore trevligt om detta i framtiden ger upphov till fiberoptiska skärmkablar

En vit bild på fem hundra har jag för mig. tvärt om är en annan sak. Sedan brukar man prata om men som inte är över 17 år. För rekrytering och reaktion.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Skrivet av ArcticFire:

Ca 7,4 miljarder är nog närmare 7 än 10.

HAHAHA, du har så rätt, det jag tänkte på var en undersökning där de beräknade att vi kommer att vara 9,7 miljarder människor år 2050 i den takt befolkningen ökar idag

Permalänk
Medlem

Den leksaken kommer nog att kosta en slant med alla tillbehör
Skulle gärna prova den

Visa signatur

Låda thermaltake view 91 M-kort ASUS X399 ROG Zenith Extreme CPU AMD Ryzen Threadripper 1920X 3.5 GHz Kylning Hemma byggd vattenkylning 2 x 480mm + 1 x 420mm radiatorer Minne 8 X 16Gb DDR4 HD SSD 240GB OCZ Trion 100 Grafik Gigabyte Geforce RTX 3080 10GB GAMING OC WATERFORCE WB AGG Corsair RM 1000w 80+ Gold Skärm ASUS 43" ROG Strix XG438QR 4K VA HDR 120 Hz

Permalänk
Medlem

Så skal de vidst have fixet deres coilwhine issue. Hvis kortene skal rendere 1700fps.

Visa signatur

Intel 5820k @ 4,7 Ghz| Asus X99-s | GTX 1080TI | 16 GB G.skills Ripjaws DDR4-2400 | WD Black M.2 512GB OS drive | Samsung 860 EVO 1TB Game drive | NZXT H440 | Watercooled, 2 x Alphacool ST30 360mm radiator, 7 x Nb E-loop B12-PS | EK - Supremacy EVO - Acetal + Nickel (Original CSQ) | Dell S2716DG

Permalänk
Medlem
Skrivet av Ricerunner:

Skulle vara trevligt om någon seriös testare kunde få händerna på en dylik skärm och utföra tester med några professionella gamers för att utvärdera huruvida de ö.h.t upplevde någon skillnad mellan 600Hz (vilket är ungefär den uppdateringsfrekvens vid vilken stridspiloter kan uppfatta och identifiera en enda hastigt visad bildruta, enligt något test jag läst... Eller var det kanske runt 200?) och 1700Hz.

Vad hjälper det för gamers? Det är väl allmänt känt att på 120hz+ så flyter det mesta likadant, men det är inte så enkelt pga av hur en LCD skärm funkar. Även om ögat teoretiskt sett skulle kunna "se" 600hz så uppdateras ju inte hela datorskärmen - bara pixlar som ändrats. Det betyder att allting flyter ihop från pixel till pixel i spel. Om man ska vara petig och försöka flasha en bild mellan 599 vita så tror jag att skärmens pixel respons klappar ihop innan dina ögon, åtminstone med dagens teknik. Vad Nvidia har gjort är ju knappast jämförbart. Vi gamear inte på 40x20 upplösning eller vad det där är.

Om du nu inte vill utsätta professionella gamers för gamla 600hz (riktig, inte fejkad) tjockskärmar. Men jag tror det finns nån punkt i Genèvekonventionen som inte tillåter tortyrredskap.

Permalänk
Medlem
Skrivet av xcluzive:

Känns lite överdrivet mycket? Är det ens nödvändigt?

Skrivet av Granter:

men fan i helvete 1700, undrar när de slutar vara effektivt för människor

Skrivet av Zotamedu:

Så vad är då poängen med hög bildfrekvens?

Skrivet av Ricerunner:

Skulle vara trevligt om någon seriös testare kunde få händerna på en dylik skärm och utföra tester med några professionella gamers för att utvärdera huruvida de ö.h.t upplevde någon skillnad mellan 600Hz (vilket är ungefär den uppdateringsfrekvens vid vilken stridspiloter kan uppfatta och identifiera en enda hastigt visad bildruta, enligt något test jag läst... Eller var det kanske runt 200?) och 1700Hz.

Känns som alla tänker väldigt kortsiktigt och tänker bara på 2D displayer...en 1700hz display 2d display, skulle bara räcka till en 28x28x28 statisk volumetrisk (holografisk) display, om man skulle vilja ha en volymetrisk 24hz animerad display som är 1024x1024x1024, så skulle man behöva en display som klarar 1.475Mhz så finns definitivt en anledning att utveckla högre hz displayer, dock så tror jag personligen innan man lyckas göra en 1.475Mhz display så kommer AR "glasögon"/(eller framtida versionen av det) vara så pass utvecklade så en fysisk volymetrisk display inte kommer vara praktisk eller aktuell.

Visa signatur

Ryzen 5950x | RTX 4090 | 64GB 3600Mhz| WD Black sn850 2TB
NAS: Unraid | 8GB 2133Mhz | ASRock C236 WSI | Intel G4600 | 32TB WD RED
YT:youtube.com/patan77xd IG:instagram.com/patan77 Webwww.patan77.com

Permalänk
Medlem

Ögat kan ändå inte se mer än 80hz.

Troll out!

Permalänk
Medlem
Skrivet av Zotamedu:

Jag gissar OLED.

Tja... LCD kan väl knappast orka köra i 1700 Hz.

Skrivet av RaBlack:

Skönt att höra.... då vet man att Nvidia's G-Sync skärmar med "extra peng" går till nyare och bättre teknik för alla.

GSYNC är värt att satsa på med andra ord då pengarna de tar in gör nytta.

MVH

Vad är det som får dig att tro att detta är ett resultat av G-sync?

Permalänk
Avstängd
Skrivet av Cocosoft:

Vad är det som får dig att tro att detta är ett resultat av G-sync?

För att känna att man inte slängt extra pengar i sjön på Gsync.

MVH

Permalänk
Medlem

Aa vänta, ska bara checka statusen på mina 837 grafikkort!

Visa signatur

Dator: Fractal Design 650w modulär - Piledriver FX8350 + Arctic Cooling Freezer Xtreme Rev 2 - 4x2 gb Corsair Dominator 1866 mhz 9-9-9-24 - 1x 500 gb sataII, 1x640 Western Black Caviar, 1x Crucial m4 128 GB SSD - Fireface UCX (ljudkort) - SAPPHIRE Radeon HD7870GHZ (överclockat) - ASUS någonting lite över medelklass, 3 st 120mm chassifläktar Windows 8.1 x64

Permalänk
Entusiast
Skrivet av Ricerunner:

Skulle vara trevligt om någon seriös testare kunde få händerna på en dylik skärm och utföra tester med några professionella gamers för att utvärdera huruvida de ö.h.t upplevde någon skillnad mellan 600Hz (vilket är ungefär den uppdateringsfrekvens vid vilken stridspiloter kan uppfatta och identifiera en enda hastigt visad bildruta, enligt något test jag läst... Eller var det kanske runt 200?) och 1700Hz.

Dagens grafikkort skulle själkvklart aldrig orka rendera ett modernt spel i den frekvensen, men huruvida de skulle klara av att spela upp en förrenderad animation konverterad till ett vanligt videoklipp är en helt annan sak.
Sedan krävs det förstås en kabel som kan hantera det också.

Vore trevligt om detta i framtiden ger upphov till fiberoptiska skärmkablar

Stridspiloterna identifierade en svart siluett av ett flygplan mot en vit bakgrund om den visades i 1/220 sekund. Det går att se att en svart figur blinkar till snabbare än så men där någonstans verkar gränsen för att identifiera ett objekt ligga. Fast den siffran är tämligen irrelevant för ett spel eftersom det bygger på ett koncept som heter image retention. Bilden av flygplanet hänger kvar i vårt medvetande längre än vad den visas. CRT displayer hade inte fungerat utan det konceptet. Så här ser en CRT-skärm ut i höghastighetskamera

Fosforn slutar lysa väldigt väldigt snabbt men eftersom det är en ljus bild så hänger den kvar "i ögat". Poängen med att piloter kunde identifiera en siluett på 1/220 var för att det var en kontrastrik bild och den gick från vitt till vitt igen. Det är inte samma sak som att det går att se skillnad på 220 och 440 FPS i en kontinuerlig bildström. Det är helt enkelt olika saker. På samma sätt kan du se repor och hårstrån på gammal hederlig film även om de bara syns i 13-20 ms på bioduken men de ser inte de enskilda bildrutorna i filmen även om den bilden bara byts ut med 41 ms mellanrum.

Sen är en av poängerna med hög bildfrekvens i spel att få ner latenser mellan att du gör något och tills det syns och när du reagerar på något som händer på skärmen. Det är där hög uppdateringsfrekvens kommer in i VR. Kan du uppdatera skärmen snabbt så kan du också minska tiden det tar att byta ut bilden du ser vilket motverkar åksjuka. Sen är jag tveksam till att uppdateringsfrekvenser i kHz området är praktiskt användbara. Jag skulle gissa på att det är någon som arbetar med OLED som byggt en panel med hög frekvens bara för att det går. OLED kan i teorin klara upp mot 10 000 Hz. Häftigt men inte så relevant i praktiken för bildfrekvensen men det leder till väldigt låg latens i skärmen. Då är det styrkretsarna som står för latensen och inte tiden det tar för pixlarna att ändra sig.

Skrivet av Patan77:

Känns som alla tänker väldigt kortsiktigt och tänker bara på 2D displayer...en 1700hz display 2d display, skulle bara räcka till en 28x28x28 statisk volumetrisk (holografisk) display, om man skulle vilja ha en volymetrisk 24hz animerad display som är 1024x1024x1024, så skulle man behöva en display som klarar 1.475Mhz så finns definitivt en anledning att utveckla högre hz displayer, dock så tror jag personligen innan man lyckas göra en 1.475Mhz display så kommer AR "glasögon"/(eller framtida versionen av det) vara så pass utvecklade så en fysisk volymetrisk display inte kommer vara praktisk eller aktuell.

Varför behöver du automatiskt högre bildfrekvens i ett hologram och varför skalar bildfrekvensen med volymen? Du skalar inte bildfrekvensen med arean på en vanlig skärm. Blandar du ihop bandbredden för dataöverföringen med uppdateringsfrekvensen på skärmen nu?

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av Zotamedu:

Varför behöver du automatiskt högre bildfrekvens i ett hologram och varför skalar bildfrekvensen med volymen? Du skalar inte bildfrekvensen med arean på en vanlig skärm. Blandar du ihop bandbredden för dataöverföringen med uppdateringsfrekvensen på skärmen nu?

Nej, jag pratar om en display teknik där man använder an vanlig 2D display sen flyttar man den fysiskt i 3D space vilket gör att displayen varje sekund måste vara 60 gånger per z-position för en statisk "volymetrisk" bild och sen om man vill ha en animerad bild måste man ta det gånger den fps man vill ha. Dataöverföringen skulle vara i from a voxlar så en 24fps 1024x1024x1024 8bit okomprimerat skulle vara ca 26GB/sec.

Visa signatur

Ryzen 5950x | RTX 4090 | 64GB 3600Mhz| WD Black sn850 2TB
NAS: Unraid | 8GB 2133Mhz | ASRock C236 WSI | Intel G4600 | 32TB WD RED
YT:youtube.com/patan77xd IG:instagram.com/patan77 Webwww.patan77.com

Permalänk
Medlem
Citat:

Under GPU Technology Conference visar Nvidia en prototyp av en skärmteknik med en uppdateringsfrekvens som går hela vägen till 1 700 Hz. Det betyder att varje bildruta byts ut en gång varje 0,59 millisekund, att jämföra mot 11,11 och 8,33 millisekunder vid 90 respektive 120 Hz. Resultatet av detta är att latenser mer eller mindre elimineras helt, något som skulle gynna exempelvis VR-headset.

Jag undrar hur kostsam den här skärmtekniken är.

Permalänk
Entusiast
Skrivet av Patan77:

Nej, jag pratar om en display teknik där man använder an vanlig 2D display sen flyttar man den fysiskt i 3D space vilket gör att displayen varje sekund måste vara 60 gånger per z-position för en statisk "volymetrisk" bild och sen om man vill ha en animerad bild måste man ta det gånger den fps man vill ha. Dataöverföringen skulle vara i from a voxlar så en 24fps 1024x1024x1024 8bit okomprimerat skulle vara ca 26GB/sec.

Låter som en tämligen opraktisk typ av hologram då den bara fungerar längs en axel. Det blir ju inte mycket till bild från fel sida eller uppifrån. Vidare blir det ju extremt begränsad volym eftersom accelerationen blir så hög så den riskerar att skaka sönder. Vill inte tänka på vilket oväsen den skulle föra heller. Jag kan inte hitta någon information alls om den typen av hologram. Har den ett namn?

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av Oringen:

24FPS duger pga vana, dvs ''vi vet inte bättre''

Håller helt med, känns dåligt att det inte är bättre på nya filmer år 2016.

Permalänk
Medlem
Skrivet av Zotamedu:

Låter som en tämligen opraktisk typ av hologram då den bara fungerar längs en axel. Det blir ju inte mycket till bild från fel sida eller uppifrån. Vidare blir det ju extremt begränsad volym eftersom accelerationen blir så hög så den riskerar att skaka sönder. Vill inte tänka på vilket oväsen den skulle föra heller. Jag kan inte hitta någon information alls om den typen av hologram. Har den ett namn?

Det är definitivt en ganska opraktisk typ av hologram, det är just därför jag tror AR är framtiden inte någon annan typ av hologram teknik.
Mm skulle vara svårt att skapa en kubisk vibrerande volymetrisk display som är något så när stor, men iden är vibrerar upp och ner inte fram och tillbaks och i en glas kub som är vakuum och displayen skulle behöva vara väldigt tunn och lätt sen har men under kuben en vibrerande motvikt som vibrerar motsats rörelse för att minimerar vibrationer, skulle behöva vibrerar 1440gånger per sec för 24fps så accelerationen kraften skulle vara ganska stor som sagt.

Du kan googla "volumetric display" finns massor olika designer , den vanligaste är de roterande en axel, sen roterande 2 axlar finns några, dock vet inte om det finns några kubiska vibrerande byggda prototyper.

EDIT
Verkar även finnas kubiska nu, dock använder dom en projektor med väldigt hög hz istället för en display.

Visa signatur

Ryzen 5950x | RTX 4090 | 64GB 3600Mhz| WD Black sn850 2TB
NAS: Unraid | 8GB 2133Mhz | ASRock C236 WSI | Intel G4600 | 32TB WD RED
YT:youtube.com/patan77xd IG:instagram.com/patan77 Webwww.patan77.com

Permalänk
Medlem
Skrivet av shengli:

Så skal de vidst have fixet deres coilwhine issue. Hvis kortene skal rendere 1700fps.

Som jag tolkar detta så handlar inte om 1700FPS, dvs det är inte 1700 unika bilder per sekund vi ser. Vad det istället handlar om är att skärmen uppdaterar befintliga bilder, låt oss säga 60fps många fler ggr än normalt. Detta för att undvika effekten vi får som resultat av sample and hold-tekniken som både LCD och OLED-skärmar naturligt bygger på. Genom att rita upp samma bild så många fler gånger/sekund så minskar rörelseoskärpan (motion blur) effekten drastiskt, vilket gör att man blir mindre snurrig/mår mindre illa av att titta på bilden i snabba rörelser. Utan rörelse så spelar uppdateringsfrekvensen i en LCD eller OLED skärm väldigt liten roll.

Tekniken skulle förmodligen därför kunna byggas in i panelen snarare än att sitta i grafikkortet, likt det sätt som G-sync och free-sync hanterar låg FPS på.

Edit: Såg nu att någon redan tagit upp detta i tråden.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem

@Cocosoft: OLED genererar ljust själv, det är statiskt tills oled-punkten blir ombedd att ändra sig, vilket blir istället ett beroende av källan (FPS). OLED är sonika "utan" uppdateringsfrekvens i jämförelse med LCD- och CRT-tekniken, flimmerfritt kan det uttryckas (flera variabler kan förstås förstöra detta).
http://www.displaymate.com/LG_OLED_TV_ShootOut_1.htm#Lab_Test... - se "Response Time and Motion Blur" // "LG specs the OLED Response Time at 0.1ms" vilket ger 1000hz men med statiskt ljus (i princip finns det alltså inte en uppdateringsfrekvens).

Egentligen är denna teknik Nvidia presenterar helt onödig om ett företag väljer att använda OLED-skärmar i sina VR-headsets. Än mer blev det då det nyligen rapporterades att OLED-skärmar är nu billigare att tillverka än LCD.
http://www.androidauthority.com/amoled-displays-now-cheaper-t...

Permalänk
Medlem
Skrivet av Kraeshok:

@Cocosoft: OLED genererar ljust själv, det är statiskt tills oled-punkten blir ombedd att ändra sig, vilket blir istället ett beroende av källan (FPS). OLED är sonika "utan" uppdateringsfrekvens i jämförelse med LCD- och CRT-tekniken, flimmerfritt kan det uttryckas (flera variabler kan förstås förstöra detta).
http://www.displaymate.com/LG_OLED_TV_ShootOut_1.htm#Lab_Test... - se "Response Time and Motion Blur" // "LG specs the OLED Response Time at 0.1ms" vilket ger 1000hz men med statisk ljus.

Egentligen är denna teknik Nvidia presenterar helt onödig om ett företag väljer att använda OLED-skärmar i sin VR-headsets. Än mer blev det då det nyligen rapporterades att OLED-skärmar är nu billigare att tillverka än LCD.
http://www.androidauthority.com/amoled-displays-now-cheaper-t...

Tekniken är inte alls onödig. Den är snarare väldigt nödvändig just på grund av det faktum att vi använder skärmtekniker som LCD och OLED. Problemet är ju att källan aldrig kan komma i närheten av 1700fps idag, men du kan uppenbarligen få panelen att uppdatera sig mycket snabbare, om än med väldigt mycket färre unika bilder/sekund. På det sättet motverkas förmodligen de problem vi upplever med sample and hold-tekniken.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem
Skrivet av elajt_1:

Tekniken är inte alls onödig. Den är snarare väldigt nödvändig just på grund av det faktum att vi använder skärmtekniker som LCD och OLED. Det är en av orsakerna till att man siktar på minst 90Hz/90fps på VR-headsets. Läs lite om "Sample and Hold" så förstår du precis.

Okay!
Från länken i min förra post:

Citat:

For a simple test of Motion Blur we photographed a DisplayMate Test Pattern moving at a very fast 1352 pixels per second using a Nikon DSLR camera with a shutter speed of 1/250th second, which is less than the display’s 120 Hz refresh cycle time. Figure 4 has a screen shot for the OLED TV and a similar screen shot for an LCD TV from a 2011 study. Both TVs have a 120 Hz Refresh Rate. On the LCD TV screen shot it is possible to make out latent images from more than 5 prior refresh cycles. The OLED TV screen shot shows a single sharp image. See our LCD Response Time and Motion Blur article for more details.
OLED TV Test Result: The OLED screen shot shows no visible Motion Blur or latent images from any previous refresh cycles, so the Response Time is visually indistinguishable from zero with no visible display based Motion Blur.

"Sample and hold" Kan klart komma i vägen men det verkar redan vara under lösning hos skärmtillverkarna då OLED kan utan problem nå 1000Hz. Från det jag fått med mig är det inte alla OLED-skärmar som använder sig av enbart just "Sample and hold", för att komma runt "motion blur" så används också "black frame insertion". Förstår jag rätt om problemet med just "sample and hold" ligger just i elektroniken i att styra bildpresentation till skärmpanelen? En interpolations- eller interlace-teknik bör också klara av att reducera oönskad "motion blur"?

Underligt hur vi bara uppfattar "30hz/30fps" medan 1000hz i bilder i rörelse fortfarande ger oönskade effekter?! ^_^

Nvidias teknik är alltså en sorts Delta Sigma D/A converter som modulerar den binära signalen multiplikativt av informationen den håller? Så det som händer t.ex. är att en bild för 90fps kommer att användas i presentation 18.9ggr för 1700hz, frågan är bara vilken sorts skärmtyp de har använt för att få till att de fysiska pixlarna klarar av 1700hz, gissar på OLED men...

Permalänk

Shiit, och jag som bara har 60hz...

Visa signatur

Case: Define R3 | GPU: Sapphire R9 290 Tri-X | MB: Asus Maximus VII Hero | CPU: Intel 4970k @ 4,0GHz | Cooler: phanteks ph-tc14pe | RAM: 20GB cl10 1600MHz | PSU: FD Tesla R2 500W | Storage: Samsung SSD 830-Series 128GB

Permalänk
Medlem
Skrivet av Zotamedu:

Det där med bildfrekvens är tämligen komplicerat och en acceptabel bildfrekvens för film är inte samma som en acceptabel bildfrevkens i spel. 24 FPS fungerar bra i film men är hackigt i spel och ger direkt åksjuka i VR. Det är en salig blandning av fysik, fysiologi och psykologi som samspelar.

Tror största förklaringen till det är "suddighet", då menat med skärpa och fokus. Våra spel jobbar efter principen att allt ska vara perfekt. Inga taggiga kanter, pefekta skuggor och perfekt fokus. "Motion blur" är ju något som först nyligen börjat tillkomma i spel, och ofta blir det en konstig känsla att ha den på, så inte den heller är perfekt.

Min tanke är, som jag förstått det, att du klarar dig på 24"fps" på en film för varje individuell bildruta är inte i fokus, utan du har varierande ljusstyrka, varierande fokus och rörelse fångas inte på exakta "pixlar". Det som gör problemet är ju att det "hackar" mellan var din hjärna förväntar sig att något ska vara, vs var bildskärmen visar var det ska vara. Du har även bara ljus precis i rätt ögonblick när bildrutan är rätt, och inte får några halva bildrutor som är omritade som datorers spel med tearing, något som är problem på tex en datorskärm. Utan rörelse kan ske jämt, för även om rörelse är suddig och otydlig på varje bildruta, så lägger din hjärna ihop dem så att du ser vad du behöver för att inte "bli illamående"

Så det borde finnas 2 sätt att fixa detta, ena är att gå upp i Hz så långt det går, så att du får så många punkter "mellan" dessa hopp så att hjärnan börjar luras igen. Detta är för många minst 60hz, men ofta kan skillnad till 90-120Hz verkligen öka hur flytande en rörelse känns.

Det ubisoft tex försökte göra var ju andra lösningen, dvs just denna blur tanke, där du inte skulle behöva mer fps, men deras sätt att implementera det var ju verkligen usel. I teorin så borde dock säg 30/48/60 fps med en bra blur funktion faktiskt fungera kanon för en del typer av spel. Det extremt viktiga är är att bildfrekvensen är konstant, och inte varieras som den tyvärr gör i spel.

Problemet ligger i att du måste ha fokus för att träffa med vapen, du måste ha fokus för att se detaljer och du måste ha fokus för att med ditt digitala tangentbord, göra dina "hackiga rörelser" rätt. Så det går inte med alla spel. Lite som att snipers i verkliga livet inte "springer och skjuter samtidigt" som i CS:GO tex. Skulle aldrig fungera, då dina ögon aldrig skulle kunna fokusera... Testa försöka läsa en tidning när den flyttas nån centimeter i olika riktningar. Du kommer snabbt tappa bort dig.

Så anledningen till att du behöver overkliga 400FPS+ i detta spel, är för att du kan göra det overkliga och behöver då skärpa och fokus i extrema nivåer för att kunna göra det. Det är 100% spel-tänk dock, och har inte ett skit att göra med mänskliga ögat eller verklighet, utan är bara sätt att lura hjärnan där verkligheten inte gäller.

Mao, anledningen till varför tex konsoler kommer undan i enklare spel utan högre FPS är pga du sitter med en analog kontroller, långt från skärmen, med låg upplösning... du typ eliminerar alla behov av fokus och skärpa. På samma sätt gör du i filmer med blur och låg fps, där du faktiskt utnyttjar detta för att tex kunna använda stuntmän/kvinnor och kunna göra orealistiska scenbyten. Du ser inte detaljerna förrän du fryser bilderna...

Här kommer också problemet med just moderna filmer när det börjar bli 4k osv... upplevelsen blir inte bättre, därför du måste behålla samma suddighet och låg fps. Om du skulle göra 4k med 100Hz i film tex, så skulle du verkligen behöva göra alla effekter och saker "perfekt", annars skulle folk se varenda misstag i filmen. Lägg till den enormal mängd data som skulle behövas för att åstadkomma detta och du måste börja komprimera det hårdare, vilket i sig tar bort all fördel med 4k upplösning. Så personligen tar jag hellre närmare okomprimerad 1080p film @ 24/30Hz, än hårt komprimerad 4k @ 60Hz+, då du får fokus på det som filmen behöver, istället för på varje bildruta som du inte behöver