Sony tar bort ”8K” från Playstation-kartonger i smyg

Permalänk
Medlem

Att loggan "försvinner" från paketet säger kanske inte så mycket om nånting annat än just att det antagligen inte är en särskilt säljande detalj.

Gissar att den helt enkelt flyttar till baksidan. Precis som på lådan till Xboxen tydligen, men inte lika tydligt naturligtvis, har. Vi får se när de väl finns i det vilda.

Skrivet av Gurrrra:

Bara för nånting påstås så betyder det inte att det är så. Människan har alltid kunnat uppfatta framerates lååångt över 60fps.

Skrivet av Pågenbröd:

Inte enligt vissa ''experter''

Tydligen var man en supermänniska om man kunde uppfatta skillnaden, det var en stor debatt på den tiden.

Att kunna uppfatta någon slags skillnad och att faktiskt kunna få ut den fulla nyttan av den är dock olika saker.

Det som de som inte ser skillnaden eller helt enkelt inte bryr sig stödjer antagligen faktan på är synaptisk respons. Den är runt just 60 för människor. Den kan man mycket riktigt inte träna upp, vara evolutionärt i bräschen med eller liknande med mindre än att hoppas på en karmatisk omstart. Som fluga.

Däremot så är ju naturligtvis även video som allt annat datareducerat något där detaljerna kan ligga emellan raderna att läsa.

Skrivet av leopard01:

Med allt tunnare TV som produceras så krymper även högtalarna och folk har upptäckt att man åtminstone ska ha en soundbar för bättre ljud. Då ser budgeten annorlunda ut och man satsar inte lika fullt på senaste tekniken.

Ja. Fast min i övrigt nästan rakbladstunna TV har en ansenlig klump på baksidan delvis av den anledningen antar jag. Inte för att jag tycker det verkar hjälpt särskilt mycket.

Ibland är det form över funktion på saker. Det är ju viktigt att visa att TVn åtminstone kunde varit jättetunn.

Visa signatur

Operativsystemet som löser nästan alla problem: Mint

Permalänk
Medlem
Skrivet av AndreaX:

Gissar att den helt enkelt flyttar till baksidan. Precis som på lådan till Xboxen tydligen, men inte lika tydligt naturligtvis, har. Vi får se när de väl finns i det vilda.

Dom finns i det vilda sen i mars när folk började upptäcka detta. Har inte sett baksidan men eftersom folk var oroliga att dom fått en förfalskad maskin/låda för att lådan saknade 8K helt så antar jag att den inte syns någonstans.

Permalänk
Medlem
Skrivet av AndreaX:

Att kunna uppfatta någon slags skillnad och att faktiskt kunna få ut den fulla nyttan av den är dock olika saker.

Det som de som inte ser skillnaden eller helt enkelt inte bryr sig stödjer antagligen faktan på är synaptisk respons. Den är runt just 60 för människor. Den kan man mycket riktigt inte träna upp, vara evolutionärt i bräschen med eller liknande med mindre än att hoppas på en karmatisk omstart. Som fluga.

Ja det här med synapsernas respons känner jag till, att flugor tickar på snabbare o därför upplever tid annorlunda än oss.
O det finns helt klart en övre gräns för vad en människa kan uppfatta, o den diffar såklart mellan olika människor, precis som vissa människor hör upp till 22khz medans andra 15khz (påverkas av både genetik o ålder). Vad exakt denna synaptiska respons ligger på hos människor vet jag inte, men det är kanske som du säger att det ligger på runt 60hz.
Dock så är det mer än det som påverkar vad för framerate vi kan uppfatta, se o märka skillnad mellan. T ex tracka saker på en skärm kommer ge rörelseoskärpa även vid 500hz tack vare persistence of vision även om våra synapser inte skulle jobba mer än i 60.
Men sen tvivlar jag lite på att det ändå är 60hz som skulle vara den gränsen då dom flesta märker väldigt tydlig skillnad o presterar bättre mellan 60 o 120hz. Finns såklart folk som säger sig inte se nån som helst skillnad, men sätt dom med en 60hz o 120hz bredvid varandra (eller tillomed 120 o 240) med allt annat lika som visar nån ganska snabb rörlig bild av nåt slag o dom lär garanterat kunna peka ut vilken som är vilken.

Permalänk
Medlem

Jag tror i samband med att NVIDIA vid lanseringen av RTX 3080/3090 visade upp Doom Eternal i 8K, kanske var det som var förebilden.

Visa signatur

Fractal Design Pop XL Air RGB | ASRock Z690 Taichi | i5-12600k | Corsair 32GB (2x16GB) DDR5 6000MHz CL30 | Gigabyte RTX 5070 12GB Gaming OC

Nintendo Switch 2 | PlayStation 5 | Xbox Series X
Min FZ Profil

Permalänk
Medlem
Skrivet av Saddex:

Inom EU har dessutom 8K-skärmar de facto säljförbud på grund av för hög energikonsumtion. Om jag minns rätt så var det möjligt för tillverkare att kringgå det genom att göra ett eco-läge till "standardläge", med resultat sämre bildkvalitet - den som inte är teknisk nog att ändra det (någons föräldrar kanske?) skulle i den situationen kanske känna sig blåst.

Den som upplever att det är svårt att använda en fjärrkontroll är förmodligen inte potentiell kund till några 8K TV-apparater oavsett. Det är väl dessutom mer regel än undantag idag att alla nya TV-apparater levereras med någon form av ECO-mode/energibesparing default.

Permalänk
Medlem
Skrivet av Shane Vendrell:

För hög upplösning på en TV? Ja, kanske.

För hög upplösning på en datorskärm? Sällan!

8k på 40" borde funka finfint med 200% skalning

Eller ännu bättre, en 65" 8K skärm på skrivbordet och vips har man fått 4 st 32" 4K skärmar utan kanter. Kanske inte något för svensson men det gäller nog 8K överlag

Permalänk
Medlem
Skrivet av Lonian:

Såg en 55 tums 8k tv en gång på en mässa då dom var nya. Gissa vad. Jag såg ingen skillnad mot en vanlig 4k tv. Storleken måste väl ändå vara gigantisk för att det skall se rätt ut.

Det räcker med 65" när skärmen är på skrivbordet (eller snarare på väggen bakom det i mitt fall om man ska vara petig). Kör 100% skalning, dvs ingen skalning.

Permalänk
Medlem
Skrivet av corb06:

Vi skaffade Samsungs 75"are i 8K förra året. QN900C-serien, helt fantastisk bild! Den skalar även upp 1080p material såpass bra att det nästan ser ut som 8K. Rejäl uppgradering från vår 65" 4K-tv vi hade innan.
Ja 8K drar mycket ström, vår ligger på strax över 500W när vi spelar upp HDR-material, men TVn har en ljusstyrka på 4000 nits också, vilket är 3-dubbelt så mycket som vissa OLEDs.
Sitter man väldigt långt från TVn så spelar det kanske mindre roll, men tycker 4K funkar upp till 65" vid "normalt" avstånd sen bör man nog inte vara rädd för att kolla in 8K på 75" och uppåt.

Just nu går den modellen vi har för 29 000 via Benify, vilket är bara några tusen mer än ett 4090 grafikkort. Eller 10 000 mer än topputrustade-telefonerna från Apple eller Samsung.

Got to pay to play

Några 4000 nits lär inte vara aktuellt annat än möjligtvis om en enstaka stjärna visas på en i övrigt helt svart skärm, det är nog ännu en siffra som Samsungs marknadsföringsavdelning hittat på

I spel/PC-läge är dock det mesta i AI väg avstängt eftersom det medför input lag / latens så där är det mer normal uppskalning som gäller. Problemet med Samsungs 8K TV-apparater för en mer normal vardagsrums-setup så är väl problemet att man för samma pengar får en riktigt bra 77" OLED och där har man nog svårare att se fördelarna med 8K.

Permalänk
Bildexpert 📺

QN900C kom upp i ca 1600 nits peak för HDR på 10% testmönster när jag testade den. Visserligen 65-tum och större paneler är som regel lite mer ljusstarka. Men in 2-3 ggr ljusstarkare utan mer 10 procent eller så.

Oavsett är 1600 mätbara nits imponerande. Nu kom iofs 65 tum QN95C upp i ca 2100 nits när jag testade den så jagar man ljus är den lämpligare och oftast billigare.

Permalänk
Medlem
Skrivet av improwise:

Några 4000 nits lär inte vara aktuellt annat än möjligtvis om en enstaka stjärna visas på en i övrigt helt svart skärm, det är nog ännu en siffra som Samsungs marknadsföringsavdelning hittat på

I spel/PC-läge är dock det mesta i AI väg avstängt eftersom det medför input lag / latens så där är det mer normal uppskalning som gäller. Problemet med Samsungs 8K TV-apparater för en mer normal vardagsrums-setup så är väl problemet att man för samma pengar får en riktigt bra 77" OLED och där har man nog svårare att se fördelarna med 8K.

Skrivet av Laxpudding:

QN900C kom upp i ca 1600 nits peak för HDR på 10% testmönster när jag testade den. Visserligen 65-tum och större paneler är som regel lite mer ljusstarka. Men in 2-3 ggr ljusstarkare utan mer 10 procent eller så.

Oavsett är 1600 mätbara nits imponerande. Nu kom iofs 65 tum QN95C upp i ca 2100 nits när jag testade den så jagar man ljus är den lämpligare och oftast billigare.

Ah ni har rätt på sätt o vis, jag hade dessutom klantat till och angett fel modellbokstav. Det var QN900B vi hade skaffat, inte C. B-modellen har HDR4000 vilket är att man klarar 4000 nits en kort stund på liten yta. Iaf enligt Samsung. Vi hade även QN800B ett par veckor innan vi bytte till 900B, men QN800B hade HDR2000, dvs hälften av ljusstyrkan i HDR. 521 Watt drar vår TV i max HDR läge, enligt energidekalen på kartongen.

https://www.samsung.com/se/tvs/qled-tv/qn900b-75-inch-neo-qle...

"What is HDR 4000?
The contrast also rises as the maximum brightness is quadrupled to 4,000 nits. This newest high-dynamic range technology allows for videos and images with much greater brightness, contrast, and better color accuracy than what was possible in the past.24 aug. 2023"

65"aren är svagare, endast HDR3000.

Permalänk
Medlem
Skrivet av corb06:

Ah ni har rätt på sätt o vis, jag hade dessutom klantat till och angett fel modellbokstav. Det var QN900B vi hade skaffat, inte C. B-modellen har HDR4000 vilket är att man klarar 4000 nits en kort stund på liten yta. Iaf enligt Samsung. Vi hade även QN800B ett par veckor innan vi bytte till 900B, men QN800B hade HDR2000, dvs hälften av ljusstyrkan i HDR. 521 Watt drar vår TV i max HDR läge, enligt energidekalen på kartongen.

https://www.samsung.com/se/tvs/qled-tv/qn900b-75-inch-neo-qle...

"What is HDR 4000?
The contrast also rises as the maximum brightness is quadrupled to 4,000 nits. This newest high-dynamic range technology allows for videos and images with much greater brightness, contrast, and better color accuracy than what was possible in the past.24 aug. 2023"

65"aren är svagare, endast HDR3000.

Ett råd: Specar betyder inte ett dyft.

Rtings krämade ur strax över 1400 nits (vilket är bra drag, ska sägas) som mest från 900B. Sen går det iofs att kräma ur en del mer i nått pajas dynamic läge men det har ju ingen praktisk betydelse.

Permalänk
Medlem
Skrivet av ipac:

Ett råd: Specar betyder inte ett dyft

Källa: Denna nyhet

Permalänk
Medlem
Skrivet av ipac:

Ett råd: Specar betyder inte ett dyft

Åtminstone inte när det gäller Samsung.

Permalänk
Medlem
Skrivet av Squallie:

Källa: Denna nyhet

Haha, verkligen.

Permalänk
Medlem
Skrivet av ramlösa:

Varför skulle energiförbrukning öka nämnvärt pga 8k?

Jämför mellan grafikkort för pc så får du en bild på varför. Skillnaden mellan 4K och 8K är lika stor som 1080p och 4K. Kolla sedan på ett valfritt spel och jämför mellan grafikkort som ska prestera säg 120 FPS i 1080p och 4K. 1080p kan du få från ett simpelt grafikkort för 2-3000 spänn, medans 4K och 120 FPS så klarar få om ens något av dom värsta för 20.000+ spänn. Ta detta exempel på att driva en bild och se förbrukningen på respektive grafikkort så får du en bra bild på hur mycket mer energi det kommer att gå åt för att få bra 8K bild.

Visa signatur

NZXT H7 Flow, ASUS Z390-E, Intel 9700K 3.6GHz, 16 GB Corsair Vengeance 3.2GHz, Samsung EVO 970 500GB, MSI RTX 2070 Gaming Z, Seagate Barracuda 4 TB, Corsair RM750X V2 750W, Noctua NH-D15, 1 st FD Venturi HF-14, 6 st Phantek M25 120mm, Dell S2721DGFA,

Permalänk
Medlem
Skrivet av Gurrrra:

Ser fram emot den dagen 8K blir vanligt bland datorskärmar, satt senast igår vid min 4K 32"are o störde mig på aliasing. Inte för att det skulle bli en nattodag-skillnad, men en tillräckligt märkbar skillnad skulle det garanterat vara.

Ser fram emot när det kommer grafikkort som orkar driva moderna spel i 8k. Vi behöver komma dit att bästa kortet driver alla AAA spel i över 100fps innan 8k blir aktuellt. På 2030-talet blir det säkert möjligt

Permalänk
Medlem
Skrivet av Mörksuggan:

Jämför mellan grafikkort för pc så får du en bild på varför. Skillnaden mellan 4K och 8K är lika stor som 1080p och 4K. Kolla sedan på ett valfritt spel och jämför mellan grafikkort som ska prestera säg 120 FPS i 1080p och 4K. 1080p kan du få från ett simpelt grafikkort för 2-3000 spänn, medans 4K och 120 FPS så klarar få om ens något av dom värsta för 20.000+ spänn. Ta detta exempel på att driva en bild och se förbrukningen på respektive grafikkort så får du en bra bild på hur mycket mer energi det kommer att gå åt för att få bra 8K bild.

Rätt dålig liknelse. 4K rendering är dyrt pga av den flerfaldiga ökningen av beräkningskraft men det är inte främst pga det som 8K tv apparater kräver mer kräm.

Permalänk
Medlem
Skrivet av Mörksuggan:

Jämför mellan grafikkort för pc så får du en bild på varför. Skillnaden mellan 4K och 8K är lika stor som 1080p och 4K. Kolla sedan på ett valfritt spel och jämför mellan grafikkort som ska prestera säg 120 FPS i 1080p och 4K. 1080p kan du få från ett simpelt grafikkort för 2-3000 spänn, medans 4K och 120 FPS så klarar få om ens något av dom värsta för 20.000+ spänn. Ta detta exempel på att driva en bild och se förbrukningen på respektive grafikkort så får du en bra bild på hur mycket mer energi det kommer att gå åt för att få bra 8K bild.

Tittade faktiskt upp det, har inget med kalkylering av bilden att göra.
Har med transparentsen av materialen att göra, att det krävs en fördubblad effekt för att få ut samma ljusstyrka.

Permalänk
Bildexpert 📺
Skrivet av corb06:

Ah ni har rätt på sätt o vis, jag hade dessutom klantat till och angett fel modellbokstav. Det var QN900B vi hade skaffat, inte C. B-modellen har HDR4000 vilket är att man klarar 4000 nits en kort stund på liten yta. Iaf enligt Samsung. Vi hade även QN800B ett par veckor innan vi bytte till 900B, men QN800B hade HDR2000, dvs hälften av ljusstyrkan i HDR. 521 Watt drar vår TV i max HDR läge, enligt energidekalen på kartongen.

https://www.samsung.com/se/tvs/qled-tv/qn900b-75-inch-neo-qle...

"What is HDR 4000?
The contrast also rises as the maximum brightness is quadrupled to 4,000 nits. This newest high-dynamic range technology allows for videos and images with much greater brightness, contrast, and better color accuracy than what was possible in the past.24 aug. 2023"

65"aren är svagare, endast HDR3000.

Nu är vi rätt off-topic, men men: det där är snömos från Samsungs marknadsavdelning. Du har en av de mest imponerande TV-apparaterna på marknaden så ingen fara på taket där.

Samsung som företag kan göra bra produkter, ändå envisas de med hitta på egna beteckningar eller beskriva funktioner som inte existerar i praktiken. Det är marknadsavdelningen som är roten till det hela. "HDR4000" är ingen officiell eller vedertagen spec utan ett återkommande exempel på något påhittat. Tyvärr förekommer det påhittade HDR-something-something-specar över hela branschen, inte minst bland bildskärmar.

Om det skulle gå att nå 4000 nits i en kort stund skulle det gå att mäta, vilket inte jag sett några exempel på. 4000 nits i kort stund (hur kort?) skulle också innebära att det syntes som en kort stund av extremt starkt ljus som snabbt sjunker tillbaka och något sådant beteende märks inte. Vilket dessutom borde vara rejält distraherande i filmer. Så möjligt att det går att åstadkomma på ett rent tekniskt plan, men annars är det inget som existerar i praktiken när TV:n används under normala omständigheter.

QN900-serien är fortfarande en riktig best på HDR och Samsung behöver egentligen inte hitta på specar för att sälja in den.

Permalänk
Medlem

Tycker det känns för tidigt med 8k.
Köpte 70” 4k Philips för 3,5år och det är jag just nu jätte nöjd med. Har en 50” Panasonic plasma från 2014 också som duger än. Men antar mycket beror på hur mycket man kollar på tv. Får se vad som känns rimligt att ersätta panasonicen med när/om den ger upp.

Visa signatur
Permalänk
Bildexpert 📺

4K och 8K i fråga om beräkningskraft för en GPU är en annan sida av diskussionen. En sida som väldigt ofta förväxlas med displaykraven för 4K och 8K. Klassiska förväxlingen som alltid kommer i varenda skärmdiskussion är ju "4K/8K-skärm är inget bra för spel för min GPU orkar inte rendera spelen i 4K/8K". ¯\_(ツ)_/¯

Även om en 8K-Display måste ha kraftfullare scalerkretsar (så klart) är det inte detta som står för den stora skillnaden i energiförbrukning. Det är att strukturen runt pixlarna, ofta kallad aperture, i stort är oförändrad. Eftersom 8K-panel ska rymma 4x fler pixlar på samma yta som en pixel på en 4K-panel måste det också in 4x fler transistorer och struktur på samma yta. Och transistorerna och strukturen är svårare att krympa i storlek.

Alltså är ljusgenomsläppet sämre med 8K på samma bildyta. Det krävs fler lysdioder för att nå samma ljusflöde på en 8K-panel. Energieffektivitet i lumen per watt eller nits per watt är lägre med 8K.

Jag har en schematisk skiss på detta här:

Skissen ovan är fritt formad efter rtings macro-foton på pixelstruktren för 8K-modellen QN900C...

...och 4K-modellen QN95C

Observera att rtings bilder inte tar till skillnaden fysiska mått, utan kör ≈11 pixlar bred bild. Egentligen ska bilden 8K-strukturen vara en fjärdedel så stor som 4K-strukturen får att få en jämförbar skala. Så jag fick höfta i photoshop:

Detta ämne för övrigt svårgooglat då sökord som 4K, 8K och aperture leder till ändlösa kameradiskussioner.

Permalänk
Bildexpert 📺
Skrivet av ramlösa:

Har med transparentsen av materialen att göra, att det krävs en fördubblad effekt för att få ut samma ljusstyrka.

Jämför man Samsung QN900C och QN95C vilka båda är väldigt lika varandra i övrigt utrustning och vad den utrustningen kan tänkas dra i effekt är det med Samsungs specar följande skillnader enligt deras EU-märkning:

Typiskt drift, dvs kartonginställningen med strömsparare i gång per EU-regler.
65QN95C: 99 W
65QN900C: 112 W

Här är det mycket utrustningen runt om, elektronik, kretsar, högtalare etc som också står för energiförbrukningen. Ur kartong är QN900C mesiga 40-50 nits oavsett ljuset i rummet och vad ljussensorn berättar. Medan QN95C kan nå över 160 nits. Jag har inte exakt siffra men här var det ljussensorn som höll tillbaka QN95C.

Max drift:
65QN95C: 255 W – når 2100+ nits eller ≈ 8,2 nits/W
65QN900C: 370 W – når 1600+ nits eller ≈ 4,3 nits/W

Så ja, dubbelt så effektiv med 4K mot 8K.

Permalänk
Medlem
Skrivet av Nouveau:

Film/TV mastras i 4K, det går inte ha ett 8K workflow, det är för dyrt. Så 99% av 8K material är bara uppskalat från 4K (förutom tech demos som rullar på apparaterna i butik för att du ska köpa en 8K TV... go figure).

Sen fungerar uppskalning så pass bra från 4K & uppåt att poängen är obefintlig. Men som andra sagt, gärna 8K datornskärm, jag ser pixlarna tydligt på min 5K ultrawide.

Blir väl intressant med sport, blir det 1080p direkt uppskalad till 8K eller uppskalar man först till 4K och sen till 8K...

Permalänk
Medlem
Skrivet av katerina:

Ser fram emot när det kommer grafikkort som orkar driva moderna spel i 8k. Vi behöver komma dit att bästa kortet driver alla AAA spel i över 100fps innan 8k blir aktuellt. På 2030-talet blir det säkert möjligt

Återigen så finns det fler användningsområden för skärmar än bara gaming. Dessutom lär väl DLSS o liknande bli bättre o bättre med åren också o kommer väl snart kunna skala upp en potatis till glimrande 8K.

Permalänk
Medlem
Skrivet av Squallie:

När sa man det?

Från 1998 till 2013 så sa varje konsol spelare att det mänskliga ögat endast kan se 24/30 frames.

Permalänk
Bildexpert 📺
Skrivet av goralux:

Från 1998 till 2013 så sa varje konsol spelare att det mänskliga ögat endast kan se 24/30 frames.

Skulle säga att den diskussionen på sin tid var mer nyanserad än så. Mest att det verkar som det lever kvar något långsint minne från den diskussionens sämsta delar som tvunget måste förvaltas. Jag har i alla fall svårt att se någon poäng med att älta gammalt groll och repetera det om och om igen i varenda tråd om skärmar, FPS och Hertz. Även om man tar hela grejen som någon form av ironiskt skämt har det skämtet ruttnat sedan länge.

Om det är en slags önskan om revansch mot alla PS3-ägare som sårade någons känslor på 00-talet har revanschen ändå kommit eftersom högre FPS idag är på allas agenda. Så släpp och gå vidare.

Permalänk
Medlem
Skrivet av Laxpudding:

Skulle säga att den diskussionen på sin tid var mer nyanserad än så. Mest att det verkar som det lever kvar något långsint minne från den diskussionens sämsta delar som tvunget måste förvaltas. Jag har i alla fall svårt att se någon poäng med att älta gammalt groll och repetera det om och om igen i varenda tråd om skärmar, FPS och Hertz. Även om man tar hela grejen som någon form av ironiskt skämt har det skämtet ruttnat sedan länge.

Om det är en slags önskan om revansch mot alla PS3-ägare som sårade någons känslor på 00-talet har revanschen ändå kommit eftersom högre FPS idag är på allas agenda. Så släpp och gå vidare.

Nå nu så ställde han frågan, säkert fanns det mer kunniga som hade en teknisk diskussion: Men personligen fick jag höra detta rätt många gånger under denna period.

Permalänk
Medlem
Skrivet av goralux:

Nå nu så ställde han frågan, säkert fanns det mer kunniga som hade en teknisk diskussion: Men personligen fick jag höra detta rätt många gånger under denna period.

Finns diskussionen på internet nånstans?
Låter helfestligt.

Däremot så fattar jag inte poängen med att dra till med uppenbara felaktigheter som att varenda konsolspelare vurmade för 24-30 fps under 2 årtionden. Sicket meningslöst trams.

Permalänk
Medlem
Skrivet av goralux:

Nå nu så ställde han frågan, säkert fanns det mer kunniga som hade en teknisk diskussion: Men personligen fick jag höra detta rätt många gånger under denna period.

Jag har aldrig sett någon som på allvar försökt hävda detta, det var mest "jag läste på nätet att det mänskliga ögat inte kan uppfatta mer än 24Hz". Men det är på ungefär samma nivå som att hävda att himlen är grön och inte blå, det räcker med att titta ut/på en skärm för att se med egna ögon att det är fel. Sen blev det något av ett meme av det, och många upprepade det sarkastiskt.

Permalänk
Medlem
Skrivet av ipac:

Finns diskussionen på internet nånstans?
Låter helfestligt.

Däremot så fattar jag inte poängen med att dra till med uppenbara felaktigheter som att varenda konsolspelare vurmade för 24-30 fps under 2 årtionden. Sicket meningslöst trams.

Min kommentar var hyperbolisk, jag själv var konsol spelare under denna period. Fanns det en minoritet som var tekniskt lagda som sa "60 frames är en fördel för pc men min konsol har X och Y" jo.
Men majoriteten av konsol spelarna drog alltid "kan inte se mer än 30 frames" fast det var lätt att demonstrera att man faktiskt kan se mer.