AMD avslöjar tio skärmar för Freesync – motsvarigheten till Nvidia G-Sync

Permalänk
Medlem

Frågan är hur mycket fördröjning freesync tillför.

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Medlem
Skrivet av Orici:

Frågan är hur mycket fördröjning freesync tillför.

I värsta fall 16ms om du är i början på en ny frame och förflyttar dig i spelet precis i samma stund. I högre bildfrekvens blir den maximalt "möjliga" fördröjningen naturligtvis mindre. Ex i 120Hz blir det hälften, men samma sak gäller även för vanlig V-synk. Har du ett spel där ditt grafikkort klarar hålla 120fps konstant och du kör V-synkat på en skärm med 120Hz så lär inte fördröjningen vara något problem. Finns möjligtvis de som kan känna av något så lågt som 8ms också, men för oss dödliga så är det nog svårt

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem

27" 2560x1440 med 144Hz står på min inköpslista för min nya burk. Härligt att iaf en skärm är bekräftad att uppfylla mitt behov

BenQ skall tydligen vara en IPS skärm vilket känns ännu bättre. Känns som att det är dags att lämna TN paneler.

Permalänk
Medlem
Skrivet av elajt_1:

Titta på vad de olika teknikerna faktiskt gör. Lagget från V-synk kommer (iallafall vad jag tror) främst ifrån tiden det tar att rita upp en ny bild. Detta lagg eller rättare sagt fördröjning kommer även ske med G-synk på.
Det går inte att magiskt eliminera de 16ms som det faktiskt tar att rita en ny frame. Det jag är osäker på är om det finns ytterliggare overhead med vanlig V-synk, som gör att detta känns trögare.

Men som sagt, jag hade själv aldrig skaffat en 60Hz skärm med G alternativt Free-synk. Tanken för mig är att kunna dra nytta av en tear-free bild långt över 60Hz. Ju högre upp i bildfrekvensen man kommer desto mindre blir automatiskt det mus-input lag vi vanligtvis upplever vid V-synk och 60Hz.

Nu är det ju inte så. Lagget kommer i huvudsak från att att bildrutorna du får är gamla. Om du har v-synk på och din bildskärm uppdaterar med 16ms per sekund. Du får en bild, men nästa bild kommer efter 17ms, då har din bildskärm ingen ny bild och ritar upp, utan tar den gamla igen. Sen efter den bilden på 17ms han det komma en ny och då får du den nya bilden som nummer 3.

Så bild nummer 1 och 2 är samma, bild 2 faller bort man ser den inte sen får man bild nummer 3. Därför stänger många av v-synk för att det är otroligt irriterande och tar smällen med screanteraing.

I fallet med gsyn-g/freesync så vissa bild 1, bild 2 blir sen men vi väntar 1ms visar den bilden, sen visar bild 3. du har fått alla bilder men inte i samma ms takt.

Hade du haft v-synk på och legat över 60fps blir det like lika dant. Du har ofta bilder som ligger på kö. De bilderna är gamla och du får ett lagg pga det. Då den bild du ser inte är den senaste som renderades av grafikkortet.

Sådana saker är det som är tänkt att elimineras i och med dessa standarder. Har visserligen läst några recensioner som visar att g-synk får en del input lag om de ligger över skärmens hz även om det är lägre än med v-synk på. Och att i de fallen rekomenderas en fps låsning några fps under skärmen refrechrate.

Edit:
Det som spelar roll för din uplevelse föruton hur känslig du är. Är trots alt kombinationen av fördröjning på musen, chipset, cpu, minnen, program, gpu, (enkelt förklarat) Sen dins skärms inputt lag, updateringsfrekväns responstid. (och det med fresync/g-synk försöker lösa i kedjan är updateringsfrekvens och som jag förstå i g-synks fall även ett garanteradt lågt inputt lag(osäker vart jag läste det eller inbildning så tänk salt))

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem

GS/FS ser till så att när en bild väl börjat ritas kommer den också att ritas klart. Den längsta hypotetiska fördröjningen som kan bli är då alltså vid 60hz 16 sekunder. Utan synkteknik hade man fått tearing långt upp på skärmen i det fallet, istället för att den väntar till nästa skärmuppdatering.
Men denna hypotetiska fördröjning kan enbart hända om den nya framen renderas superfort. Tänk er att Render C för FreeSync-grafen på sida 5 i http://www.amd.com/Documents/FreeSync-Whitepaper.pdf är jättekort. Utan synkteknik hade Render C skrivits ut en bit ner på Display B och gett tearing.

Oftast kommer FS/GS att bete sig som precis som en framelimiter, men när det renderas för långsamt kommer den hålla kvar i föregående bild tills exakt då nästa bild är redo.
Här är en bild som visar ett hyffsat verklighetstroget scenario med olika tekniker:

Permalänk
Medlem
Skrivet av hACmAn:

Nu är det ju inte så. Lagget kommer i huvudsak från att att bildrutorna du får är gamla. Om du har v-synk på och din bildskärm uppdaterar med 16ms per sekund. Du får en bild, men nästa bild kommer efter 17ms, då har din bildskärm ingen ny bild och ritar upp, utan tar den gamla igen. Sen efter den bilden på 17ms han det komma en ny och då får du den nya bilden som nummer 3.

Så bild nummer 1 och 2 är samma, bild 2 faller bort man ser den inte sen får man bild nummer 3. Därför stänger många av v-synk för att det är otroligt irriterande och tar smällen med screanteraing.

I fallet med gsyn-g/freesync så vissa bild 1, bild 2 blir sen men vi väntar 1ms visar den bilden, sen visar bild 3. du har fått alla bilder men inte i samma ms takt.

Hade du haft v-synk på och legat över 60fps blir det like lika dant. Du har ofta bilder som ligger på kö. De bilderna är gamla och du får ett lagg pga det. Då den bild du ser inte är den senaste som renderades av grafikkortet.

Sådana saker är det som är tänkt att elimineras i och med dessa standarder. Har visserligen läst några recensioner som visar att g-synk får en del input lag om de ligger över skärmens hz även om det är lägre än med v-synk på. Och att i de fallen rekomenderas en fps låsning några fps under skärmen refrechrate.

Edit:
Det som spelar roll för din uplevelse föruton hur känslig du är. Är trots alt kombinationen av fördröjning på musen, chipset, cpu, minnen, program, gpu, (enkelt förklarat) Sen dins skärms inputt lag, updateringsfrekväns responstid. (och det med fresync/g-synk försöker lösa i kedjan är updateringsfrekvens och som jag förstå i g-synks fall även ett garanteradt lågt inputt lag(osäker vart jag läste det eller inbildning så tänk salt))

Ja där har vi en förklaring varför V-synk skulle vara något slöare än G-synk. Men V-synk, G-synk alternativt Free-synk kommer alltid ha potentialen att vara 16ms efter en skärm som är osynkad. Jag beskrev varför i mitt andra inlägg. Zalastax besrkiver ungefär samma sak om jag inte missförstod.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem
Skrivet av Orici:

Frågan är hur mycket fördröjning freesync tillför.

Jag räknade ner till Oricis typiska "doubt is our product" replik vid goda AMD nyheter

Permalänk
Medlem

Jag tror många hade uppskattat en detaljerad artikel om Freesync och G-sync när dessa skärmar finns i handeln.

Permalänk
Medlem
Skrivet av elajt_1:

Du kanske har rätt, men V-synk, G-synk alternativt Free-synk kommer alltid ha potentialen att vara 16ms efter en skärm som är osynkad. Jag beskrev varför i mitt andra inlägg. Zalastax besrkiver ungefär samma sak om jag inte missförstod.

Ja vi beskriver samma sak.
Att hamna 16ms efter är dock i princip omöjligt. Det beror på att med FreeSync och en framelimiter pausar grafikkortet om den renderat klart och skärmen inte är redo. Det gör så att om den ska hamna 15ms (gentemot att köra utan något alls) efter måste den hinna rendera en bildruta på 1ms.
Man kan också se det som att FreeSync alltid är minst 16ms efter din input, medans om man kör utan framelimiter är man alltid enbart så långt efter input som det tar för grafikkortet att rendera. Men det blir dumt att tänka så på grund av att trots att du renderar 400fps så kommer ju bara 60fps visas upp. Ditt input-lag blir vid 400fps bara 2.5ms, men det hjälper ju inte när du inte ser din input förändra något de andra 13 millisekundrarna.

Skrivet av elajt_1:

Ja där har vi en förklaring varför V-synk skulle vara något slöare än G-synk.

Svarar på din redigering med.
Vid V-synk kommer man ibland att visa samma bild två gånger. Då får man ett input-lag på 32ms, och man blir irriterad på att det skakar till. Med G-synk kommer den nya bilden tryckas ut så fort den är klar och man får istället kanske bara 20ms input-lag på just den bildrutan.

Permalänk
Medlem

Ska bli kul att se om det blir bra detta, synd bara att skärmar i Sverige brukar säljas till sånt överpris...

Visa signatur

Asus Z87-A| 4770k@4.5GHz@1.19v|Gtx680@+100MHz offset - Accelero Hybrid| 2x4GB Corsair 1600MHz DDR3| Samsung 830 series SSD 256GB| Asus Xonar essence STX| Corsair HX620w| Define XL| giefscience.com | Jag streamar på Twitch

Permalänk
Medlem
Skrivet av Orici:

Frågan är hur mycket fördröjning freesync tillför.

Jag hoppas att du inte blir alltför ledsen, men det är 100% lägre fördröjning än G-sync, dvs 0. Med G-sync måste bildströmmen tuggas genom en extra minnesbuffert (aka G-sync-modul) i skärmen innan bilden når panelen.

Visa signatur

Vägra fx 3of4 Pi 1M 1.84 s Memory remapping
Minnen har ingen egen hastighet. Märkningen anger bara vilken hastighet minnena uppges klara

Permalänk
Medlem

Får hoppas det blir bra

Men verkar komma riktigt fina paneler i år i alla fall.

Kanske kommer oled paneler med freesynk längre fram

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Master of Overkill
Skrivet av Hardware guy:

Jag hoppas att du inte blir alltför ledsen, men det är 100% lägre fördröjning än G-sync, dvs 0. Med G-sync måste bildströmmen tuggas genom en extra minnesbuffert (aka G-sync-modul) i skärmen innan bilden når panelen.

Sen märker jag ingen skillnad i CS för 5 öre typ med G-SYNC vs ULMB.

Det är placebo.

Dock är ju detta lite segt, AMD har sitt du måste ha AMD kort, Nvidia har sitt du måste ha Nvidia kort.

Asså så vad men en gör så måste man köpa bådas saker.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem
Skrivet av Hardware guy:

Jag hoppas att du inte blir alltför ledsen, men det är 100% lägre fördröjning än G-sync, dvs 0. Med G-sync måste bildströmmen tuggas genom en extra minnesbuffert (aka G-sync-modul) i skärmen innan bilden når panelen.

Det blir förmodligen inte någon mer fördröjning pga minnet på 768MB som finns på G-synk modulen är inte för att hålla en bild/frame. Så om det skulle vara någon som helst fördröjning så lär det vara försumbart precis som tvelander skriver. Det som G-synk har som nackdel i dagsläget är en prestanda förlust på mellan 3-5% i fps. "Tror" detta är på grund av handskakningen mellan grafikkortet och G-synk modulen som förmodligen sker innan varje ny frame/bild skickas. Nvidia har sagt att de jobbar på att få bort detta i kommande uppdateringar, men jag tvivlar starkt på att det går att få bort i den befintliga modulen, utan kommer garanterat bli en hårdvaruuppdatering.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Inaktiv
Skrivet av elajt_1:

Titta på vad de olika teknikerna faktiskt gör. Lagget från V-synk kommer (iallafall vad jag tror) främst ifrån tiden det tar att rita upp en ny bild.

Nej... så fungerar det inte.

Kan inte folk som inte har någon aning om hur grafikkort/skärmar fungerar sluta skriva om saker de inte kan något om? Snälla?

Permalänk
Medlem
Skrivet av Stupo:

Nej... så fungerar det inte.

Kan inte folk som inte har någon aning om hur grafikkort/skärmar fungerar sluta skriva om saker de inte kan något om? Snälla?

Jag skrev att jag inte visste exakt hur det fungerade med V-synk påslaget, och jag var lat nog att inte snabbt läsa på om det. Hur som helst så förklarades det ganska bra i tråden av någon annan. Det andra jag skrev med fördröjningen som finns med G-synk/Free-synk vs. osynkat är ett faktum. Och om du nu vet så jävla mycket, så rätta gärna oss som inte har hela bilden istället för att komma med spydiga/dumma kommentarer som inte ger oss något alls.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Avstängd

Najs! Hoppas på fler och fler skärmar framöver med Adaptive-Sync stöd.

Hoppas även att Intel lägger till stöd för Adaptive-Sync.
Vore bra om Nvidia gjorde det också, om man vågar hoppas.

Synd att det inte finns någon 4K skärm med 144 Hz.

Permalänk
Medlem

Har tittat runt lite och LG 34UM67 ser det ut att vara lite oklart med info på. Den kan vara 3440x1440 och Curved och IPS.
http://www.tomshardware.com/news/lg-34um67-34uc97-34uc87m-ces...

Problemet är nog att dom som skriver är otydliga eller så blandar dom ihop fakta på dom olika skärmarna. Bara tiden kan avslöja vad det är som kommer.

Permalänk
Hedersmedlem
Skrivet av tvelander:

Dock är ju detta lite segt, AMD har sitt du måste ha AMD kort, Nvidia har sitt du måste ha Nvidia kort.

Asså så vad men en gör så måste man köpa bådas saker.

Kanske en petitess, men det tycker jag låter lite missvisande. AMD har väl inte "sitt" i det här fallet. Det är inte AMD som utvecklat VESAstandarden och det är inte AMD som håller nvidia borta från att använda denna VESAstandard.

Jag skulle snarare uttrycka det så att AMDs alternativ är öppet för alla och nvidia är välkomna men vill hålla användarna borta från det här alternativet om möjligt. Däremot har nvidia "sitt" system som är låst.

Så är man missnöjd med låsningen så är det ena laget (i detta fall det gröna) som ställer till det för tillgängligheten för båda teknikerna för oss konsumenter.

Visa signatur

🎮 → Node 304 • Ryzen 5 2600 + Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx • 🥽 → VR: Samsung HMD Odyssey+
🎧 → Steelseries arctic 7 2019
🖱️ → Logitech g603 | ⌨️ → Logitech MX Keys
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Avstängd
Skrivet av Tickles:

Vart är min 21:9 34" curved med freesync? Vad väntar de på!?

På att ni ska bli fler som vill ha en skärm med de specifikationerna?

Skrivet av tvelander:

Sen märker jag ingen skillnad i CS för 5 öre typ med G-SYNC vs ULMB.

Det är placebo.

Dock är ju detta lite segt, AMD har sitt du måste ha AMD kort, Nvidia har sitt du måste ha Nvidia kort.

Asså så vad men en gör så måste man köpa bådas saker.

Inte riktigt. G-Sync behöver en Nvidia GPU medan FreeSync inte behöver en AMD GPU eftersom det är en del i VESA standarden.

Visa signatur

||NZXT H440 Black/Red||Intel i5 2500k @ 4,2GHz ||Noctua NH-D14 ||GA-Z77X-UD3H ||8 gb Corsair Vengeance 1600mhz DDR3 ||MSI GeForce GTX 970 ||OCZ Agility 3 120GB SSD ||Samsung Spinpoint F3 1TB ||Corsair HX750W||
Software is like sex, it's better when it's free. - Linus Torvalds

Permalänk
Medlem

Håller tummarna att nVidia får Freesync stöd också

Visa signatur

13900KS | 32GB 6400 DDR5 | 4090 FE | Samsung G8 Oled
ASUS ROG Strix Z790-F Gaming | Fractal Torrent White | Corsair HX1200

Permalänk
Medlem
Skrivet av Oneone:

Håller tummarna att nVidia får Freesync stöd också

Undrar vad som hände med detta:
http://www.sweclockers.com/nyhet/19346-nvidia-utlovar-stod-fo...

Permalänk
Hedersmedlem
Skrivet av gothxx:

Några dagar senare:
http://www.sweclockers.com/nyhet/19393-nvidia-vagrar-ge-klart...

Och där är vi kvar i dagsläget.

Visa signatur

🎮 → Node 304 • Ryzen 5 2600 + Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx • 🥽 → VR: Samsung HMD Odyssey+
🎧 → Steelseries arctic 7 2019
🖱️ → Logitech g603 | ⌨️ → Logitech MX Keys
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Master of Overkill
Skrivet av Tumnus:

På att ni ska bli fler som vill ha en skärm med de specifikationerna?

Inte riktigt. G-Sync behöver en Nvidia GPU medan FreeSync inte behöver en AMD GPU eftersom det är en del i VESA standarden.

Ja men kör Nvidia sitt race så måste man välja Nvidia GPU eller AMD GPU och skärmar för den delen så man är låst oavsett.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem
Skrivet av Oneone:

Håller tummarna att nVidia får Freesync stöd också

Det kommer inte att hända, precis som Mantle inte kommer att få stöd av nVIDIA.

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Medlem

Lite of toppic men. =(

http://techreport.com/news/26451/adaptive-sync-added-to-displ...
Osäker på om länken gäller

Jag anser att det borde vara en standard i displayport inte ett tillval. Om det var en standard i dp, då har inte nvidia en chans förutom att stödja det dåligt. Eller ..... "standarder är bra, det är därför vi har så många" =(

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem
Skrivet av Orici:

Det kommer inte att hända, precis som Mantle inte kommer att få stöd av nVIDIA.

Om delar av det eller helar rubbet implementeras i opengl har inte nvida något annat val än att stödja det hela.

Varken amd eller nvidia är några idioter. Även om det ibland känns så. =(

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem
Skrivet av hACmAn:

Om delar av det eller helar rubbet implementeras i opengl har inte nvida något annat val än att stödja det hela.

Varken amd eller nvidia är några idioter. Även om det ibland känns så. =(

Ja men då är det inte Mantle utan något som inte kontrolleras av AMD.

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Medlem

Om Benq skärmen är IPS då blir det ett givet köp!

Permalänk

Fasen, ingen 16:10 skärm.