Nvidia: Inga planer på att stödja Freesync och Displayport Adaptive-Sync

Permalänk
Hedersmedlem
Skrivet av Yoshman:

Har sett de som hävdar att det blir för stort "input-lag" med trippelbuffer, men i genomsnitt minskar input-lag med då man får högre genomsnittlig FPS. Det specifika fall när det "input-lag" ökar är när GPUn har kapaciteten rendera snabbare än den frekvens man har på sin skärm, vid 30Hz ökar då "input-lag" med 33ms, men få skärmar har så låg frekvens. Vid 60 Hz ökar input-lag med 17ms och vid 100 Hz med 10ms, vilket borde vara ett rätt litet problem då en människa har ett eget "input-lag" på strax över 200ms. Vidare kan man ju alltid köra med dubbelbuffer om man märker att GPU-delen klarar FPS lång över skärmens frekvens.

Det du säger stämmer, rent tekniskt, men slutsatsen blir lite fel enligt mig. Problemet med 17 ms extra input lag är inte att man får t ex 217 ms i total "input lag", utan att man får känslan av att musrörelserna inte hänger med. Man måste dock vara rejält van vid lågt input lag för att tycka att det är ett problem. Människans reaktionstid har alltså inget med detta att göra.

Permalänk
Datavetare
Skrivet av widL:

Det du säger stämmer, rent tekniskt, men slutsatsen blir lite fel enligt mig. Problemet med 17 ms extra input lag är inte att man får t ex 217 ms i total "input lag", utan att man får känslan av att musrörelserna inte hänger med. Man måste dock vara rejält van vid lågt input lag för att tycka att det är ett problem. Människans reaktionstid har alltså inget med detta att göra.

Input-lag är inte noll bara för man har freesync/g-sync, input-lag där är upp till 1000/(skärmens frekvens) ms. Spelar man utan v-sync har man längre input-lag, fast effekten är ju bara riktigt stor på den delen precis under "tearing" linjen. Man får nog vara bra 1337 för att kunna dra någon relevant nytta av det...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Spelar man utan v-sync har man längre input-lag, fast effekten är ju bara riktigt stor på den delen precis under "tearing" linjen. Man får nog vara bra 1337 för att kunna dra någon relevant nytta av det...

I teorin borde det vara så kan även jag tycka... Men i praktiken tycker jag ofta (normal) vsync ger väldigt påtaglig laggighet även om man stänger av trippelbuffering och bara borde ha en frame lagg. Vet ej om det är "render frames ahead" som ställer till det, eller om det är något annat som spökar. (jag har dock enbart provat 60hz skärmar ska erkännas)

Här är jag nyfiken på om gsync och freesync skiljer sig åt. Om gsync ger mindre lag än freesync (med vsync på i båda fallen), så är det i sig värt en hel del!

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk
Medlem

Väldigt trist av Nvidia!

En klar nackdel om man man måste satsa på dyrare skärmar med G-sync. Då blir det ju automatiskt genast ett högre (och sämre) totalpris för en Nvidia-lösning.

Tror att AMD faktiskt kan vinna på det (de är nog glada i hemlighet att Nvidia dum nog väljer att inte stödjer FreeSync).

Visa signatur

macOS: MacBook Air 13" [M1/16/256GB], MacBook Pro 16" [M2/32/512GB], iOS: iPad Mini [128GB/LTE], iPad Pro 12,9" [M1/512GB/LTE], iPhone SE3 [128GB], Apple Watch Series 6 44mm [LTE], W10: Surface Book 3 15" [Core i7/GTX1660Ti/32/512GB], LG 77" OLED C2 [OLED77C25LB]
The purpose of morality is to teach you, not to suffer and die, but to enjoy yourself and live. --Ayn Rand
Skriv under ett upprop för en grönare energipolitik: https://energiupproret.se/

Permalänk

Så typiskt Nvidia, envisa jävlar.

Visa signatur

Intel i7 6700k @4.7Ghz | Be Quet! Dark Rock Pro 3 | Asus Z170 ROG Hero VIII | 32GB DDR4 Corsair Vengeance 3000Mhz | Asus 1080Ti Strix OC | Samsung 950 Pro M.2 250GB, Samsung EVO 850 120GB, Samsung EVO 840 250GB, & Seagate 7200rpm 4TB | Corsair HX 1050W | Fractal Design S | Asus Xonar U7 | Sennheiser PC360 | TrackIR 5 + ProClip | Eizo 27" EV2736W | HTC Vive | Windows 10 Pro

Permalänk
Medlem

Bra att nVIDIA står fast vid G-Sync och inte överger det så lättvindigt när en oprövad teknik kommer.

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Medlem
Skrivet av Mr_Sappy:

G-Sync kommer först och främst med en licens avgift som gör den dyrare.

Men nvidia kommer också med kvalitets krav på prestandan och hårdvara/mjukvara i skärmen, vilket Freesync inte har, och det är nog först och främst därför skärm tillverkarna föredrar Freesync då dem inte behöver betala något och kan enkelt köra Copy'n Paste med teknologin och sedan marknadsföra skärmen enklare med några hundralappar extra i pris.

Linus Tech tips tog en snabbtitt på Freesync på CES 2015 och noterade att även om Freesync var på så hade skärmen fortfarande problem med tearing och annan uppdatering skit, problemen hade bara gått ner markantjämfört med när dem inte var på. Så hur bra Freesync kommer att fungera är upp till skärm tillverkarna helt enkelt, det kommer att bli svårare än nånsin att köpa skärmar nu då det är svårt att se prestanda på papper osv.

Detta visar bara att nVIDIA bryr sig om sina kunder medan AMD lämnar ansvaret till andra aktörer som vanligt.

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Hedersmedlem
Skrivet av Yoshman:

Input-lag är inte noll bara för man har freesync/g-sync, input-lag där är upp till 1000/(skärmens frekvens) ms. Spelar man utan v-sync har man längre input-lag, fast effekten är ju bara riktigt stor på den delen precis under "tearing" linjen. Man får nog vara bra 1337 för att kunna dra någon relevant nytta av det...

Det handlar inte om att "dra nytta" av det i strikt bemärkelse, som i att man lyckas skjuta fienden först för att man har några millisekunder mindre input lag än denne (det ligger ju ändå oftast minst 30 ms fördröjning i nätverket mellan spelarna). Det handlar om muskelminne (d v s det går absolut att vänja om sig) och att öga-hand-koordinationen blir svårare med mer fördröjning mellan dina rörelser och vad som händer på skärmen.

Jag kan säga så mycket som att jag personligen har provat att spela alla möjliga FPS-spel med vsync påslaget, men står oftast inte ut mer än några minuter. Det är dock endast i FPS-spel som denna fördröjning är direkt märkbar eller relevant.

Permalänk
Discokungen
Skrivet av Roger W:

I teorin borde det vara så kan även jag tycka... Men i praktiken tycker jag ofta (normal) vsync ger väldigt påtaglig laggighet även om man stänger av trippelbuffering och bara borde ha en frame lagg. Vet ej om det är "render frames ahead" som ställer till det, eller om det är något annat som spökar. (jag har dock enbart provat 60hz skärmar ska erkännas)

Här är jag nyfiken på om gsync och freesync skiljer sig åt. Om gsync ger mindre lag än freesync (med vsync på i båda fallen), så är det i sig värt en hel del!

Jo, det är väldigt stor skillnad. Jag som inte direkt bryr mig om mer än 60Hz, även när jag testat G-sync på Swift, blir rätt irriterad på vsync. Det segar ner rätt märkbart trots att FPS:en är densamma. Att sätta ett tak på FPS i typ Afterburner gör väldigt mycket mer nytta. Visst får man tearing och skit men flytet är helt annorlunda.

Jag hoppas freesync blir en stor grej, Nvidia ska kunna implementera det med bara en uppdatering så vi får väl se. En UHD-skärm med stödet hade varit väldigt trevligt på typ 32"!

Visa signatur

AMD 5800X3D - G.Skill Trident Z 3200 CL16 32GB - Asus B550 TUF - ASRock 7900 XTX Phantom - Intel 900p - CaseLabs S8 - LG 42C2 - Corsair AX1200i - Aquaero 6 - Vattenkyld

Permalänk
Datavetare
Skrivet av widL:

Det handlar inte om att "dra nytta" av det i strikt bemärkelse, som i att man lyckas skjuta fienden först för att man har några millisekunder mindre input lag än denne (det ligger ju ändå oftast minst 30 ms fördröjning i nätverket mellan spelarna). Det handlar om muskelminne (d v s det går absolut att vänja om sig) och att öga-hand-koordinationen blir svårare med mer fördröjning mellan dina rörelser och vad som händer på skärmen.

Jag kan säga så mycket som att jag personligen har provat att spela alla möjliga FPS-spel med vsync påslaget, men står oftast inte ut mer än några minuter. Det är dock endast i FPS-spel som denna fördröjning är direkt märkbar eller relevant.

Blev intresserad av tekniken bakom G-sync, som bl.a. beskrivs här, och passade även på att läsa på en hel del kring input-lag i spel, bl.a. denna artikel.

Den andra artikeln nämner också input-lag kontra mänsklig reaktionsförmåga och nämner att speltillverkare rent empiriskt kommit fram till att input-lag blir ett problem när det totalt sett når ca hälften av mänsklig reaktionsförmåga som ligger ~200ms.

input-lag består av dessa komponenter

så skärmen, och framförallt synkroniseringen med uppdateringsfrekvensen vilket är det enda g-sync/freesync kan påverka, är bara en del i detta.

Läser man igenom dessa artiklar och eventuellt googlar lite så drar i alla fall jag slutsatsen att:

  • e-proffsen lär nog köra utan v-sync på skärm med så hög frekvens som möjligt då det ger lägst input-lag

  • kör man spel som t.ex. CS:GO där kraftigare spelriggar kan nå FPS långt över skärmens frekvens så tillför g-sync ingenting utöver dubbelbuffer + v-sync

  • kör man spel där FPS konsekvent ligger under skärmens frekvens så minskar g-sync jitter jämfört med trippel-buffer + v-sync, input-lag ligger på väldigt snarlik nivå mellan dessa två varianter men rent teoretiskt g-sync ge något lägre lag.

Så tekniken är inte på något sätt värdelös, men tycker fortfarande att det jag skrev initialt verkar stämma rätt bra: det är en vettig teknik, framförallt för lite mer causual-gamers som inte sätter input-lag över allt annat. För dessa personer slipper man reda ut om spelet har en FPS klart över skärmens frekvens (då v-sync bör kombineras med dubbelbuffer) eller FPS under skärmens frekvens (då v-sync bör kombineras med trippelbuffer).

Spel med FPS som ligger väldigt nära skärmens frekvens är där tekniken ger mest, men har man en skärm med en frekvens >100Hz så kan man i det läget välja dubbel-buffer då input-lag tillskottet från v-sync blir minimalt i det stora hela. På 60Hz skärm blir effekten av g-sync/freesync rätt stort i just detta specifika fall, men sitter "pro-gamers" på sådana skärmar?

Är det inte då så att tekniken passar e-sport motionären bäst? Proffsen lär göra allt för att minimera input-lag likt Gunde med filade stavspetsar för minskad vikt, medan de som spelar på "casual"-nivå knappast lär vara beredd att lägga speciellt mycket pengar på detta (eller?). Tror därför att detta kommer få stor spridning om/när kostnaden att stödja tekniken är försumbar i förhållande till totalpriset, men tveksamt att det blir speciellt stort innan.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av tvelander:

Ja men ska jag skaffa billigare skärmar, ja då måste jag köpa nya GPUer!!!

... varför då?

Permalänk
Master of Overkill
Skrivet av Mr.Borka:

... varför då?

Ja för om Free-sync är "billigare"
Måste jag köpa AMD för att Nvidia lär ju inte stödja det...

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem
Skrivet av tvelander:

http://i.imgur.com/TAVoemL.png

Så du tror dessa skärmar inte blir dyra då?

Klart att skärmarna kommer kosta en del, men det ät inte till följd av Freesync utan tillverkningskostnaden. AMD har själv kommenterat frågan, och enligt egen utsago skall det endast handla om 70-150kr extra för en freesync skärm i jämförelse med en av samma modell fast utan denna kompatibilitet.

Visa signatur

| i9-9900X 4.8 GHz | ASUS RTX 3090 ROG Strix Gaming OC | 2X Vertex 4 512GB RAID 0 | 2X WD RED 4TB | ASUS ROG STRIX X299-E GAMING | Corsair 900D | 2X MSI Optix MAG321CQR 144Hz | G.Skill Trident Z Royal Silver DDR4 3600Mhz CL15 4x8GB | Corsair AX 1200i | Asus Xonar STX II | Watercooling 480+480+240 |