AMD Freesync i praktiken

Permalänk
Medlem
Skrivet av anon5930:

Frågan är om Nvidia skulle acceptera att synas på samma produkt. Erbjuda skärm tillverkaren lite pengar för att inte FreeSync-certa den kanske...
Samt något lås, Geforce-kort i datorn för mer än 60Hz och Adaptive Sync?

Är ju egentligen vad de gör på andra områden, Gameworks och den där kontrollen exempelvis.

Kanske, skulle inte förvåna. Men samtidigt måste ju skärmtillverkarna ha en motivation att sätta emot. De kan ju bara förlora på att endast stödja Nvidia och förlora ett visst antal potentiella köpare och vice versa givetvis om de bara kan sätta en lapp som säger Freesync. Antalet sålda grafikkort bör ju inte påverkas.

I grund och botten tycker jag att kunderna i längden bör se detta som en standard som alla andra och vara så utbildade att de kan syna Nvidias lösning som onödig och dyr. Skulle bli löjligt om det blir som Apples olika sladdar som bara funkar med deras produkter när resten av industrin kör standard.

Permalänk
Medlem
Skrivet av bonaqua:

Synd att ni inte testade hur FreeSync står sig mot GSync när fps droppar under skärmens lägsta nivå.

Med GSync mellan 15-29 fps dubblas det till 30-58... mellan 8-14 fps, fyrdubblas till 32-56... osv. Detta är en del av vad GSync modulen är till för.
Med FreeSync... så ser det bara skit ut då ingen motsvarighet har implementerats i AMDs drivrutiner, även om de tydligen har hintat om att det är något de kan tänka sig att göra.

Saxat från artikeln:
Det är värt att understryka att Freesync eller G-Sync inte hjälper grafikkortet på något sätt. Inget blir snabbare eller kraftfullare, utan det är precis samma krav som innan för att spela. Adaptiv synkronisering handlar såldes om att bättra på den upplevelse du får ihop med skärmen.

Kanske missuppfattar dig, men 15 fps är fortfarande 15 fps...

Permalänk
Medlem
Skrivet av Umbrellas:

...
Den stora frågan är egentligen inte om Freesync - som är överlägsen GSync - utan kring AMD.

Om man köper en skärm idag så bör man förvänta sig att använda den i iaf 5 år. 3 år för entuiaster. Kommer AMD att finnas om 5 år? Det är en öppen fråga.

Detta är en mycket bra fråga faktiskt. Bortsett från att Ati alltid var starka och fortfarande är det under AMD så påminner dagens läge om situationen på slutet av 90-talet (för oss som minns) med AMD:s K6-processorer som var rejält mycket sämre än Intels lösningar, roligt nog en del pga dåliga chipsets och moderkort. Som sagt många likheter. Sedan släppte AMD K7, första Athlon som var ett rejält steg fram och under flera år var deras CPU:s bättre än Intels och de fick en bra marknadsandel. Intel satsade på Pentium 4 som var en miss designmässigt till viss del och hela RDRAM-debaclet gjorde att deras lösningar var klart sämre och dyrare. Men Intel är Intel och de är så stora att de överlever sådant.

Vi får se om Zen blir ett nytt Athlon. Om inte ligger AMD risigt till, de har inte Intels kritiska massa.

Permalänk
Bildexpert 📺
Skrivet av bonaqua:

Synd att ni inte testade hur FreeSync står sig mot GSync när fps droppar under skärmens lägsta nivå.

Med GSync mellan 15-29 fps dubblas det till 30-58... mellan 8-14 fps, fyrdubblas till 32-56... osv. Detta är en del av vad GSync modulen är till för.
Med FreeSync... så ser det bara skit ut då ingen motsvarighet har implementerats i AMDs drivrutiner, även om de tydligen har hintat om att det är något de kan tänka sig att göra.

Fps i betydelsen "hur många bildrutor per sekund renderar grafikkortet?" är fortfarande det samma. G-sync kan inte på magisk väg fyrdubbla prestanda hos ett grafikkort som endast orkar rendera 8 fps.

Eller berättat på annat sätt: 8 fps från grafikkortet repeteras fyra gånger för 32 Hz på skärmen, därför att det krävs för att hela klabbet ska fungera när skärmen inte kan synka lägre än på 30 Hz.

Att köra G-sync och under 30 fps är ingen rolig upplevelse det heller. Låg fps är fortfarande låg fps.

Permalänk
Medlem
Skrivet av Laxpudding:

Att köra G-sync och under 30 fps är ingen rolig upplevelse det heller. Låg fps är fortfarande låg fps.

Precis, särskilt under 25 fps så upphör flytet, och det kan ingen skärmuppdateringsteknik avhjälpa.

Visa signatur

5950X, 3090

Permalänk
Skrivet av anon5930:

Frågan är om Nvidia skulle acceptera att synas på samma produkt. Erbjuda skärm tillverkaren lite pengar för att inte FreeSync-certa den kanske...
Samt något lås, Geforce-kort i datorn för mer än 60Hz och Adaptive Sync?

Är ju egentligen vad de gör på andra områden, Gameworks och den där kontrollen exempelvis.

Låter som Intel gjorde för bra länge sen Gameworks, menar du deras kontroll som funkar med deras shield?

Det exemplet låter snarare som när dom låste ute folk från att köra physx med amd kort i datorn.
Men gissar starkt att skärmtillverkarna vill undvika behöva sälja dubbla skärmar så att säga.

Skrivet av Novdid:

Detta är en mycket bra fråga faktiskt. Bortsett från att Ati alltid var starka och fortfarande är det under AMD så påminner dagens läge om situationen på slutet av 90-talet (för oss som minns) med AMD:s K6-processorer som var rejält mycket sämre än Intels lösningar, roligt nog en del pga dåliga chipsets och moderkort. Som sagt många likheter. Sedan släppte AMD K7, första Athlon som var ett rejält steg fram och under flera år var deras CPU:s bättre än Intels och de fick en bra marknadsandel. Intel satsade på Pentium 4 som var en miss designmässigt till viss del och hela RDRAM-debaclet gjorde att deras lösningar var klart sämre och dyrare. Men Intel är Intel och de är så stora att de överlever sådant.

Vi får se om Zen blir ett nytt Athlon. Om inte ligger AMD risigt till, de har inte Intels kritiska massa.

AMD har levt länge på dålig ekonomi och marknaden kan ju svänga. AMD är helt klart med i matchen mot Nvidia än. AMD lyckades ju fixa ATI som låg i kris.

Så länge dom lyckas gå med vinst, så överlever AMD. tror inte zen kommer slå i5/i7 men kommer garanterat vara mer prestanda/watt. Rykten har spekulerat i runt 30% mer prestanda än nuvarande kaveri och det vore riktigt nice i så fall.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Broken-arrow:

Låter som Intel gjorde för bra länge sen Gameworks, menar du deras kontroll som funkar med deras shield?

Det exemplet låter snarare som när dom låste ute folk från att köra physx med amd kort i datorn.
Men gissar starkt att skärmtillverkarna vill undvika behöva sälja dubbla skärmar så att säga.

AMD har levt länge på dålig ekonomi och marknaden kan ju svänga. AMD är helt klart med i matchen mot Nvidia än. AMD lyckades ju fixa ATI som låg i kris.

Så länge dom lyckas gå med vinst, så överlever AMD. tror inte zen kommer slå i5/i7 men kommer garanterat vara mer prestanda/watt. Rykten har spekulerat i runt 30% mer prestanda än nuvarande kaveri och det vore riktigt nice i så fall.

Vi får se helt enkelt. Men jag tycker det ser ut som att AMD överlevt de senaste åren i hyfsat god form mycket pga de framgångsrika åren fram till Athlon 64. Jag har personligen inte övervägt en AMD-processor sen den tiden. Jag köper det som är bättre gällande pris/prestanda. Det betyder att iom att mina uppgraderingscykler inte sammanfallit med Nvidias prisvärda produkter (som 970) så har jag haft Intel sen Core 2 och Radeon sedan HD4890. Senaste Nvidiakortet jag hade var 8800 GTX (bra skit).

Permalänk
Medlem
Skrivet av MakeCoke:

I Anandtechs recension så stod det att vid tiden när Nvidia började utvecklingen av G-Sync fanns inte Adaptive Sync tillgänglig.

Existerade inom laptops precis som det gjorde när AMD bestämde sig för att titta närmare på att använda det för detta ändamål i desktops. Så det hade nvidia också kunnat göra om de ville. Men tyvärr gör de ofta "egna" grejer som de sedan håller för sig själva och låser in konsumenter och tillverkare. Har haft massor med nvidiakort som jag varit nöjd med så inget ont om dem. Men jag har mer respekt för AMD's approach att göra saker öppet och tillgängligt. Tyvärr saknar AMD samma ekonomiska förutsättningar som nvidia har och det gör det svårare för dem att sedan fullända sina ideer ibland.
Men man får hoppas att de får konsumenternas stöd för sin inställning och för möjligheten att tillföra fler öppna ideer som alla konsumenter kan få dra nytta av.

Visa signatur

Huvudriggen är en Gigabyte Aorus Xtreme | 128gb DDR5 6000 | Ryzen 7950X | 3080Ti
Utöver det är det för många datorer, boxar och servar för att lista :P

Permalänk
Medlem
Skrivet av Ase:

Vore kul om det kunde komma några spel som gör att man kan få nytta av det också har aldrig upplevt tearing eller andra bekymmer med något modernt spel inte sen crysis 1 innan uppgraderingen som jag gjorde då ,men jag sitter ju bara på en 30" 2560x1600 skärm också, kan ju vara annat med 4k kanske.

Jag upplever det inte som extremt. Har en 120Hz skärm och två R9 290. (Innan det 2st GTX 560Ti).
Men om jag kollar efter det så sker det i alla sepl (om jag har v-sync av). CS:GO tex märker man tydliget om man flänger musen fram och tillbaka.

Visa signatur

Huvudriggen är en Gigabyte Aorus Xtreme | 128gb DDR5 6000 | Ryzen 7950X | 3080Ti
Utöver det är det för många datorer, boxar och servar för att lista :P

Permalänk
Medlem
Skrivet av biorrith:

Så nästa gång man köper skärm blir frågan: "ska jag låsa mig till AMD eller nvidia?"

Då FreeSync är öppet och licensfritt så kan man anta att det kommer komma större utbuyd av skärmar som stöder detta. Det kommer nog på sikt göra att andra grafikkortstillverkare lägger till stöd (som inte är något svårt).

Visa signatur

Huvudriggen är en Gigabyte Aorus Xtreme | 128gb DDR5 6000 | Ryzen 7950X | 3080Ti
Utöver det är det för många datorer, boxar och servar för att lista :P

Permalänk
Hedersmedlem
Skrivet av Novdid:

Nvidia kan ju faktiskt göra exakt samma sak som AMD:s certifiering och kalla det för G-sync. De har ju trots allt jobbat in varumärket, inte nödvändigt att börja om med en ny namnsättning.

Om de gör det bör vi ha skärmar som har både Freesync och G-sync-klisterlappar. Tjänar nog båda lagen på i längden.

Jaja. Du har helt rätt. Två nvidiatekniker med två olika namn för samma funktion är bara dumt.
Tyckte bara ordvitsen med nsync (som var ett boyband från 95) var lite lustigt

Visa signatur

🎮 → Node 304 • Ryzen 5 2600 + Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx • 🥽 → VR: Samsung HMD Odyssey+
🎧 → Steelseries arctic 7 2019
🖱️ → Logitech g603 | ⌨️ → Logitech MX Keys
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Medlem
Skrivet av Wiinis:

Saxat från artikeln:
Det är värt att understryka att Freesync eller G-Sync inte hjälper grafikkortet på något sätt. Inget blir snabbare eller kraftfullare, utan det är precis samma krav som innan för att spela. Adaptiv synkronisering handlar såldes om att bättra på den upplevelse du får ihop med skärmen.

Kanske missuppfattar dig, men 15 fps är fortfarande 15 fps...

Ja, du missuppfattar...
Givetvis är 15fps ut från grafikkortet fortfarande 15fps ut från grafikkortet, och fortfarande ospelbart...
Vad jag försökte poängtera var skillnaden i hur det hanteras mellan GSync och FreeSync.
I fallet med GSync sparas en kopia av aktuell frame så att den visas två gånger i fallet med 15fps, och de visas i 30Hz. En annan sida jämförde mellan GSync och FreeSync i just fallet med fps ut som ligger under skärmens lägsta uppdateringsfrekvens, och i dagsläget är GSync bättre på just det scenariot.

Anmärk gärna på hur jag formulerat mig, men förstå vad som menas.

Om fps håller sig inom vad skärmen klarar nativt så är det således inte någon märkbar skillnad mellan gsync och freesync, men jag tyckte det var värt att påverka att det finns situationer där gsync klarar sig bättre idag.
Och jag vill också anmärka att amd ska ha sagt att de kan uppnå samma effekt genom att buffra på grafikkortssidan men att det inte är implementerat idag. När det väl är gjort så kan man säga att båda lösningarna är lika bra i just de fallen.

Permalänk
Medlem
Skrivet av Söderbäck:

AMDs mjukvara är inte open source ;).
Däremot använder AMD öppna standarder i större utsträckning, men det är inte samma sak som open source.

Njae... De släppte ju tex grafikdrivrutin för Linux open source. Det var inte något nvidia var pigga på vilket retade en del folk i Linuxvärlden (som är rätt stora förespråkare av open source).

Visa signatur

Huvudriggen är en Gigabyte Aorus Xtreme | 128gb DDR5 6000 | Ryzen 7950X | 3080Ti
Utöver det är det för många datorer, boxar och servar för att lista :P

Permalänk
Skrivet av bonaqua:

Ja, du missuppfattar...
Givetvis är 15fps ut från grafikkortet fortfarande 15fps ut från grafikkortet, och fortfarande ospelbart...
Vad jag försökte poängtera var skillnaden i hur det hanteras mellan GSync och FreeSync.
I fallet med GSync sparas en kopia av aktuell frame så att den visas två gånger i fallet med 15fps, och de visas i 30Hz. En annan sida jämförde mellan GSync och FreeSync i just fallet med fps ut som ligger under skärmens lägsta uppdateringsfrekvens, och i dagsläget är GSync bättre på just det scenariot.

Anmärk gärna på hur jag formulerat mig, men förstå vad som menas.

Om fps håller sig inom vad skärmen klarar nativt så är det således inte någon märkbar skillnad mellan gsync och freesync, men jag tyckte det var värt att påverka att det finns situationer där gsync klarar sig bättre idag.
Och jag vill också anmärka att amd ska ha sagt att de kan uppnå samma effekt genom att buffra på grafikkortssidan men att det inte är implementerat idag. När det väl är gjort så kan man säga att båda lösningarna är lika bra i just de fallen.

Att spela i 15 FPs eller att samma två bildrutor visas är inget vidare i FPS spel eller något annat spel heller. Även om t.ex strategispel inte har samma nytta av 60Hz+ så är det ju bra om det inte laggar fram. Under 30Hz är bra för film.

Förstår inte varför det skulle vara bra att den visar samma bildruta två gånger. Skulle ha försökt att få FPS över 30 hela tiden (förutom FPS spel där det behövs högre).

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Söderbäck:

Jaja. Du har helt rätt. Två nvidiatekniker med två olika namn för samma funktion är bara dumt.
Tyckte bara ordvitsen med nsync (som var ett boyband från 95) var lite lustigt

Ja det var lustigt, jag bara missade vinken helt! Måste förträngt eländet eller något.;)

Permalänk
Medlem

Verkar vara många som tar fel på morötterna och kåd...a, som vi säger i Skåne. Freesync har väl inte Intel med att göra, de är väl upp till dem att utnyttja VESA standarden och skriva egen "i-sync" typ.

Permalänk
Inaktiv
Skrivet av Novdid:

Kanske, skulle inte förvåna. Men samtidigt måste ju skärmtillverkarna ha en motivation att sätta emot. De kan ju bara förlora på att endast stödja Nvidia och förlora ett visst antal potentiella köpare och vice versa givetvis om de bara kan sätta en lapp som säger Freesync. Antalet sålda grafikkort bör ju inte påverkas.

I grund och botten tycker jag att kunderna i längden bör se detta som en standard som alla andra och vara så utbildade att de kan syna Nvidias lösning som onödig och dyr. Skulle bli löjligt om det blir som Apples olika sladdar som bara funkar med deras produkter när resten av industrin kör standard.

Tror skärmtillverkaren att de kan sälja tillräckligt med skärmar ändå så tackar de nog inte nej. Speciellt om de dessutom kan få ett tätt sammarbete och synas mer.

Skrivet av Broken-arrow:

Låter som Intel gjorde för bra länge sen Gameworks, menar du deras kontroll som funkar med deras shield?

Det exemplet låter snarare som när dom låste ute folk från att köra physx med amd kort i datorn.
Men gissar starkt att skärmtillverkarna vill undvika behöva sälja dubbla skärmar så att säga.

Gameworks är ett Nvidia-program där man arbetar med utvecklare genom att ge tillgång till Nvidia-teknik och speciella bibliotek som AMD inte kan använda vilket gör att spel fungerar sämre på icke-Nvidia system och blir svårare att optimera. Extremt anti-consumer: http://www.extremetech.com/extreme/173511-nvidias-gameworks-p...

Kontrollern jag syftade på var Shield controller som kräver geforce-kort i datorn: http://www.sweclockers.com/nyhet/19355-shield-controller-till...

Permalänk
Medlem
Skrivet av Broken-arrow:

Under 30Hz är bra för film.

Varför då? Det har jag aldrig hört.
Förklara gärna.

Permalänk
Inaktiv

Hej.
När släpper AMD freesync drivrutinen?.
Skärmen bara blinkar som tusan när jag har 144Hz.

Permalänk
Medlem

jag drog in pressdrivern, det fungerar iaf med den
#15299152

Visa signatur

//Linus

Permalänk
Skrivet av anon5930:

Tror skärmtillverkaren att de kan sälja tillräckligt med skärmar ändå så tackar de nog inte nej. Speciellt om de dessutom kan få ett tätt sammarbete och synas mer.

Gameworks är ett Nvidia-program där man arbetar med utvecklare genom att ge tillgång till Nvidia-teknik och speciella bibliotek som AMD inte kan använda vilket gör att spel fungerar sämre på icke-Nvidia system och blir svårare att optimera. Extremt anti-consumer: http://www.extremetech.com/extreme/173511-nvidias-gameworks-p...

Kontrollern jag syftade på var Shield controller som kräver geforce-kort i datorn: http://www.sweclockers.com/nyhet/19355-shield-controller-till...

Just det hört om det förr (har glömt av det).
Jo, den kontrollen ja, då tänker vi på samma sak, inte så att det gör så mycket (finns andra kompetenta kontroller att använda i så fall).

Skrivet av carll:

Varför då? Det har jag aldrig hört.
Förklara gärna.

Kör du spel under 30FPs menar du?

23.976 är flesta filmer i, förutom hobbit och kan grafikkortet tvinga skärmen att köra i just rätt Hz, så blir det bättre flyt än om displayen kör i 60 och filmen i 23.976 så kan det bli hack och oflyt. För det hamnar i osync. Många som får tvinga ner grafikkortet att köra 24FPS och då går det inte att navigera i Windows i stället.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av biorrith:

Så nästa gång man köper skärm blir frågan: "ska jag låsa mig till AMD eller nvidia?"

Fel fråga...

Ska jag välja en öppen standard, eller låsa mig till nvidia?

Alla kan och har ju möjligheten att använda Adaptiv synk..

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
Medlem
Skrivet av MakeCoke:

I Anandtechs recension så stod det att vid tiden när Nvidia började utvecklingen av G-Sync fanns inte Adaptive Sync tillgänglig.

Och givetvis ej heller G-Sync

Skillnaden är ju att Adaptive Sync tagit en tur genom VESA, något som tar sin tid. Vilket är orsaken till att vi fått vänta!

Är man otålig och inte vill vänta så får man ju betala med G-Peng

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
Entusiast
Skrivet av carll:

Varför då? Det har jag aldrig hört.
Förklara gärna.

Filmer visas i 24, 25 eller 30 fps generellt. 24 är en rest från gammal film för där någonstans slutade hjärnan se enskilda stillbilder och började tolka det som rörelse. Mer än så ville man inte använda för film är svindyrt. 8 mm film kunde köra lägre men så är det en hackig upplevelse också. TV i Europa kör 25 fps eller rättare sagt, 50i. Det vill säga 25 hela bilder per sekund men uppdelat så halva vissas åt gången. Så bilden ritas 50 gånger per sekund men bara varannan linje. Det berodde på tekniska begränsningar i CRT. NTSC som andra länder kör valde istället 60i/30p, eller ja, tekniskt sett 29,97. Så film på TV i Europa var lite kortare än samma film på bio eftersom de visades i olika bildfrekvens. Samma antal rutor men TV körde fler rutor per sekund. När film konverteras till NTSC blir det 23,976 eller så får de börja interpolera fram extra bildrutor.

Så i grunden har vi samma problem där som med spel när bildfrekvensen i materialet inte matchar skärmen. 30 FPS fungerar ju men det har varit trassligt att hantera 29,97. Intel hade stora problem med det ett tag. 25 och 24 fps är också lite lurigt. Håller man samma ruta två gånger i rad så landar vi på effektiv bildfrekvens på 50 eller 48. Så ibland så måste vi visa samma ruta tre gånger för att det ska gå jämnt upp. Nu gör moderna grafikkort och videospelare lite mjukvarumagi för att det inte ska synas så väl. Fungerar för det mesta förutom för Intel då där man fick ett hack med jämna mellanrum. Här hade det varit smidigt om man bara kunde låsa skärmen till en bildfrekvens som var en heltalsmultipel av videofilens bildfrekvens. Det behöver egentligen inte vara så lågt som 24 utan det räcker med 48 så kan man visa samma bild under två cykler på skärmen.

Det är dessutom tekniskt krångligt att köra LCD på låga frekvenser för kristallerna kan då börja driva så färgerna sticker iväg. De ligger inte helt still nämligen så det krävs någon sorts self refresh där skärmen internt uppdaterar pixlarna med jämna mellanrum.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Relik 📜
Skrivet av Zotamedu:

TV i Europa kör 25 fps eller rättare sagt, 50i. Det vill säga 25 hela bilder per sekund men uppdelat så halva vissas åt gången. Så bilden ritas 50 gånger per sekund men bara varannan linje. Det berodde på tekniska begränsningar i CRT. NTSC som andra länder kör valde istället 60i/30p, eller ja, tekniskt sett 29,97.

Rätta mig om jag har fel, men var inte en bidragande orsak till uppdelningen olika frekvens i elnäten? Europa kör ju generellt 50 Hz och USA 60 Hz, vilket helt enkelt användes i synkroniseringssyfte.

(lite offtopic, men ändå)

Visa signatur

För övrigt anser jag att Karthago bör förstöras.
▪ Nöje #1 -> i5-11400F - B560M-ITX/ac - RTX 3070 - 16 GB DDR4
▪ Nöje #2 -> R5 5600 - Prime B450-Plus - RX 6750 XT - 16 GB DDR4
▪ Mobilt -> HP Pavilion Aero - R5 5625U - 16 GB DDR4
▪ Konsol -> Steam Deck, Xbox Series S

Permalänk
Entusiast
Skrivet av emilakered:

Rätta mig om jag har fel, men var inte en bidragande orsak till uppdelningen olika frekvens i elnäten? Europa kör ju generellt 50 Hz och USA 60 Hz, vilket helt enkelt användes i synkroniseringssyfte.

(lite offtopic, men ändå)

Wikipedia säger att det mycket riktigt är en rest från det glada 50-talet då man elnätet som oscillator genom att bara köra lite resistorer för att sänka spänningen och sedan likriktare. Extremt ineffektivt och det verkar som att de la ner det rätt omgående när halvledaren kom på 60-talet. Så slapp elektroniken koka sig själv till döds på grund av värdelös verkningsgrad. Undrar hur de löste det i länder där bildfrekvens och nätfrekvens inte är samma. Brasilien har ju till exempel 60 Hz men kör PAL. Fast de kanske inte hade ett TV-nät att tala om när det var ett faktiskt problem. Japan har smidigt nog delat upp landet i två där halva kör 50 Hz och andra kör 60 Hz men hela landet kör NTSC. De har tydligen haft det så sedan sent 1800-tal för varför ändra ett vinnande koncept? Japan var ju även väldigt tidiga med TV så antar att det antingen inte var så viktigt i praktiken eller så designade de sina TV-apparater annorlunda. Någon som har koll på elektronik kan säkert svara på den frågan.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av Broken-arrow:

Att spela i 15 FPs eller att samma två bildrutor visas är inget vidare i FPS spel eller något annat spel heller. Även om t.ex strategispel inte har samma nytta av 60Hz+ så är det ju bra om det inte laggar fram. Under 30Hz är bra för film.

Förstår inte varför det skulle vara bra att den visar samma bildruta två gånger. Skulle ha försökt att få FPS över 30 hela tiden (förutom FPS spel där det behövs högre).

För att bli av med tearing. Stod i artikeln att om man kommer under skärmens lägsta värde som stöds på freesync stängs det av. Om det som ovan nämnt stämer å stänger nvidia inte av g-sync utan duplicerar bildenerna tills den kommer inom vettig nivå igen. För att fortfarande ligga inom hz området. Så t.ex. om du har 60hz och en fps 24 blir inte delningen så att skärmen visar 15fps tills den kommit upp i 30hz utan 24ggr2 dvs 24fps men visar de dubbelt i 48. Is stället för 15fps. Så fattade jag det hela.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Skrivet av hACmAn:

För att bli av med tearing. Stod i artikeln att om man kommer under skärmens lägsta värde som stöds på freesync stängs det av. Om det som ovan nämnt stämer å stänger nvidia inte av g-sync utan duplicerar bildenerna tills den kommer inom vettig nivå igen. För att fortfarande ligga inom hz området. Så t.ex. om du har 60hz och en fps 24 blir inte delningen så att skärmen visar 15fps tills den kommit upp i 30hz utan 24ggr2 dvs 24fps men visar de dubbelt i 48. Is stället för 15fps. Så fattade jag det hela.

Jag personligen lär ändå hålla det så nära 60FPS jag kan vid spel. Kommer det neråt 40/50, gör jag något åt det (sänker grafiken eller klockar ).

Bättre att stänga av sync under 30FPS, vill ju inte ha ett bildspel precis.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem

Broken, jag håller med om det. Jag vill inte heller ha så låga fps. Men alla extra möjligheter är ju trevliga. Förutsatt att det fungerar som tänkt.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem
Skrivet av Broken-arrow:

23.976 är flesta filmer i, förutom hobbit och kan grafikkortet tvinga skärmen att köra i just rätt Hz, så blir det bättre flyt än om displayen kör i 60 och filmen i 23.976 så kan det bli hack och oflyt. För det hamnar i osync. Många som får tvinga ner grafikkortet att köra 24FPS och då går det inte att navigera i Windows i stället.

Det är inte för att det är bra som den frekvensen används, utan det är den lägsta dom kan komma undan med utan att "folk" tycker det ser ut som en serie stillbilder.

Visa signatur

i7 2600k | P8P67Deluxe | Noctua NH-D14 | KFA2 GTX1080 EXOC | Corsair 750W | Corsair Obsidian 800D | Dell U2412M
America's Army: Proving Grounds