VESA lägger till Adaptive-Sync i Displayport 1.2a för AMD Freesync

Permalänk
Medlem
Skrivet av TonyB4ngZ:

Allt med sync låter direkt avtändande.

Har inte fördjupat mig så mycket i detta eller testat men undrar hur det blir med input lag osv. Speciellt för oss hardcore FPS spelare.

'Vanliga' skärmar uppdateras med ett låst mellanrum av 17ms. Oavsätt om bilden var färdig precis då, eller till exempel 10ms tidigare. En bild som inte är helt uppdaterad kan läggas ovanpå "föregående" bild, för att orsaka tearing.

Vsync fördröjer en bildruta tills dess att ett uppdaterings moment passerat. Därmed kan latens upp till 34ms förekomma.

Gsync och adaptive sync uppdaterar skärmen när bildrutan är färdig. Input latensen bör därmed ligga runt 0ms.

120hz skärmar halverar samtliga siffror ovan.

Permalänk
Medlem
Skrivet av anon5930:

En öppen lösning som är fritt fram för alla att använda då den nu ingår i Displayport-standarden mot en extremt låst dyr lösning som kräver både grafikkort från ett företag, skärmar med dyra kontrollerkort gör det hela rätt självklart.

Och fortfarande inget svar på frågan:har du ngn aning om hur välfungerande free-sync kommer att bli?. Vi får väl se när det finns test tillgängliga på hur bra free-sync är kontra g-sync men tills dess är det löjligt att påstå att det skulle vara bättre bara för att det är gratis.

Det heter,som du vet,smakar det så kostar det.

Visa signatur

Money frees you from doing things you dislike. Since I dislike doing nearly everything, money is handy.

Permalänk
Inaktiv
Skrivet av tEan:

Och fortfarande inget svar på frågan:har du ngn aning om hur välfungerande free-sync kommer att bli?. Vi får väl se när det finns test tillgängliga på hur bra free-sync är kontra g-sync men tills dess är det löjligt att påstå att det skulle vara bättre bara för att det är gratis.

Det heter,som du vet,smakar det så kostar det.

Båda teknikerna gör samma sak men implementationen är olika. AMDs är av allt att dömma bättre. Helt klart måste båda tekniker ut innan det går att avgöra om någon skillnad finns.

Det heter, som du nog också vet, ocker.

Permalänk
Entusiast
Skrivet av tEan:

Och fortfarande inget svar på frågan:har du ngn aning om hur välfungerande free-sync kommer att bli?. Vi får väl se när det finns test tillgängliga på hur bra free-sync är kontra g-sync men tills dess är det löjligt att påstå att det skulle vara bättre bara för att det är gratis.

Det heter,som du vet,smakar det så kostar det.

http://www.anandtech.com/show/7641/amd-demonstrates-freesync-...

Ja det fungerar och det verkar som om Nvidia har krånglat till det med lös krets mest för att låsa in kunder till deras hårdvara.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem

Kanske bara jag som är dum men det finns ju adaptiv sync via Nvidias kontrollpanel sen länge. vad är skillnaden ??

Permalänk

adaptive-sync är helt anorlunda, enda den gör är att i princip säga.

"Om FPSen kommer under den här siffran (60?), stäng av V-Sync, annars låt den va på".

Med andra ord, den löser ingenting, förutom 60->30fps grejen, som i sig kan löses med Tripple Buffering.

Med andra ord, tekniken är inriktad på en helt annan grej med V-Sync, förvirrande med namnet dock.

Permalänk
Medlem
Skrivet av Zotamedu:

http://www.anandtech.com/show/7641/amd-demonstrates-freesync-...

Ja det fungerar och det verkar som om Nvidia har krånglat till det med lös krets mest för att låsa in kunder till deras hårdvara.

Så här

Right now, it’s mainly targeted to 60Hz LCDs, mainly laptop LCDs.

But this is great for laptop gaming at least, since laptop frame rates are pretty low to begin with, and that adds lots of stutters. Variable refresh rate does huge wonders with low frame rates.

Laptops have often been able to dynamically change refresh rates between 50Hz and 60Hz (because 50Hz saves power). So this was a simple modification of laptop LCD’s to allow them to dynamically refresh on the fly (similiar to G-SYNC). However, these are typically low-resolution LCD’s that run only up to 60Hz.

That said, I wonder how they are going to be able to scale this up for gaming monitors. Those LCDs often don’t have power management (via refresh rate) in the same way laptop LCDs do. I am not sure there are chips available that reliably does VRR (Variable Refresh Rate) at full HD resoultions at gaming rates (120Hz+). I think that’s one of the reasons why NVIDIA has to use an FPGA at this time, an FPGA that normally costs between $300-$1000.

That said, competition is healthy, and it will force both companies to improve their respective VRR’s (Variable Refresh Rate), and hopefully make VRR a standard later this decade. Blur Busters supports VRR technologies that become mainstream.

Dold text

beskriver en av de mest insatta Anandtechs artikel.Det här var i början av januari(5 månader sen).Har inte sett ett enda test med free-sync sedan dess. Lägg märke till den kursiva delen så finner du kanske en av anledningarna till Nvidias lösning. Att sitta och spekulera om vilken lösning som blir bäst är en sak.Att påstå att en lösning som ej testats ordentligt och som dessutom verkar ganska avlägsen är bättre än en bevisligen fungerande och existerande är bara löjligt.

Visa signatur

Money frees you from doing things you dislike. Since I dislike doing nearly everything, money is handy.

Permalänk
Medlem
Skrivet av TonyB4ngZ:

Varför!?

Jag har absolut 0 problem med min nuvarande setup.

Testat att köra på 120Hz!? Om annars så tycker jag kanske du bör göra det. Tears är ett minne blott för min del.

Intressant läsning. Han testar på en rigg som ligger på ca: 84fps och får mindre input lag med G-Sync på än vad han får med V-Sync off om jag fattat det rätt. Mycket imponerande.

Jag ligger konstant över 100fps i BF4 och undrar om resultaten fortfarande hade blivit detsamma. Men det är imponerande.

Drar jag stor nytta av G-Sync även om jag ligger på väldigt hög i FPS i kombination med en bra skärm så uppgraderar jag definitivt men jag har inte sett något av detta än.

För min del flyter BF4 på helt fantastiskt.

http://imageshack.com/a/img834/9937/qh74.jpg

Kan G-Sync hjälpa mig å slipa till dom resultaten så varför inte ;).

Jag är hardcore inte casual och jag vill ha det bästa för att bli den bästa. PUNKT!

Jag har kört 120hz i många år men sånna här lösningar bör alltid uppmärksammas tycker jag.

Visa signatur

What evah! i'll do what i want! | Det stavas väl inte väll...såvida du inte ska skriva välling.
"Det var väl bra"

Permalänk
Entusiast
Skrivet av tEan:

Så här

Right now, it’s mainly targeted to 60Hz LCDs, mainly laptop LCDs.

But this is great for laptop gaming at least, since laptop frame rates are pretty low to begin with, and that adds lots of stutters. Variable refresh rate does huge wonders with low frame rates.

Laptops have often been able to dynamically change refresh rates between 50Hz and 60Hz (because 50Hz saves power). So this was a simple modification of laptop LCD’s to allow them to dynamically refresh on the fly (similiar to G-SYNC). However, these are typically low-resolution LCD’s that run only up to 60Hz.

That said, I wonder how they are going to be able to scale this up for gaming monitors. Those LCDs often don’t have power management (via refresh rate) in the same way laptop LCDs do. I am not sure there are chips available that reliably does VRR (Variable Refresh Rate) at full HD resoultions at gaming rates (120Hz+). I think that’s one of the reasons why NVIDIA has to use an FPGA at this time, an FPGA that normally costs between $300-$1000.

That said, competition is healthy, and it will force both companies to improve their respective VRR’s (Variable Refresh Rate), and hopefully make VRR a standard later this decade. Blur Busters supports VRR technologies that become mainstream.

Dold text

beskriver en av de mest insatta Anandtechs artikel.Det här var i början av januari(5 månader sen).Har inte sett ett enda test med free-sync sedan dess. Lägg märke till den kursiva delen så finner du kanske en av anledningarna till Nvidias lösning. Att sitta och spekulera om vilken lösning som blir bäst är en sak.Att påstå att en lösning som ej testats ordentligt och som dessutom verkar ganska avlägsen är bättre än en bevisligen fungerande och existerande är bara löjligt.

Fler tester än det existerar inte. AMD har visat att konceptet fungerar. Går det att köra i en laptop över eDP så går det att flytta till en annan skärm. Så stor grundläggande skillnad är det inte men mycket riktigt måste tillverkarna troligtvis uppdatera sina styrkretsar i skärmarna för att hantera det. AMD pratar just nu med skärmtillverkare om detta. Kunskapen hur man gör det finns bevisligen eftersom det fungerar i laptopar. Viljan att använda koncepetet finns också eftersom fler än Asus tittat på G-sync. AMDs teknikdemo har visat att tekniken fungerar i praktiken. Det Nvidia gjorde var att ersätta styrkretsen i skärmen med en egen istället för att låta skärmtillverkarna fixa det själva.

Så vad är problemet? Det fungerar och tekniken finns. Det är inte hjärnkirurgi direkt. Båda lösningarna gör samma sak med lite olika tekniska lösningar. Om slutresultatet är samma så borde ju prestandan vara snarlik. Varför all denna FUD?

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av Zotamedu:

Fler tester än det existerar inte. AMD har visat att konceptet fungerar. Går det att köra i en laptop över eDP så går det att flytta till en annan skärm. Så stor grundläggande skillnad är det inte men mycket riktigt måste tillverkarna troligtvis uppdatera sina styrkretsar i skärmarna för att hantera det. AMD pratar just nu med skärmtillverkare om detta. Kunskapen hur man gör det finns bevisligen eftersom det fungerar i laptopar. Viljan att använda koncepetet finns också eftersom fler än Asus tittat på G-sync. AMDs teknikdemo har visat att tekniken fungerar i praktiken. Det Nvidia gjorde var att ersätta styrkretsen i skärmen med en egen istället för att låta skärmtillverkarna fixa det själva.

Så vad är problemet? Det fungerar och tekniken finns. Det är inte hjärnkirurgi direkt. Båda lösningarna gör samma sak med lite olika tekniska lösningar. Om slutresultatet är samma så borde ju prestandan vara snarlik. Varför all denna FUD?

FUD? Du säger ju det själv"inga fler tester existerar" Varför tror du det är så? Om allt fungerar så problemfritt som du säger varför håller Amd inne med demonstrationer om hur bra deras teknik är när deras värsta konkurrent har haft sin version ute ett bra tag nu?. En kortare demo på en laptop utan ngra speltester/mätningar av inputlagg säger inte mycket om slutprodukten.

Man tycker ju att Amd i det minsta borde ha visat fram ett dev-kit som riktiga tester kunnat göras på,men inte ens det finns.

Med det sagt så säger jag inte att Amd:s free-sync kommer vara dåligt,just för att det i stort sett inte finns ngn information/tester. Men det verkar ju som du och många fler här i tråden sitter på topphemlig info eftersom ni redan säger att det är bättre än Nvidias dito.

Visa signatur

Money frees you from doing things you dislike. Since I dislike doing nearly everything, money is handy.

Permalänk
Medlem

Är inte R9 280X baserade på GCN, eller varför nämns det inte?

Visa signatur

Intel Core i5 13500 3,5 GHz | Sapphire Radeon RX Vega 56 Pulse 8 GB | Gigabyte B760M Aorus Elite | EVGA Supernova 750 G2
Corsair 32 GB DDR5 5600 MHz CL36 Vengeance | Corsair Carbide Air 540 | Acer XF270HUA | Ducky Shine 3 | Logitech G305

Permalänk
Entusiast
Skrivet av tEan:

FUD? Du säger ju det själv"inga fler tester existerar" Varför tror du det är så? Om allt fungerar så problemfritt som du säger varför håller Amd inne med demonstrationer om hur bra deras teknik är när deras värsta konkurrent har haft sin version ute ett bra tag nu?. En kortare demo på en laptop utan ngra speltester/mätningar av inputlagg säger inte mycket om slutprodukten.

Man tycker ju att Amd i det minsta borde ha visat fram ett dev-kit som riktiga tester kunnat göras på,men inte ens det finns.

Med det sagt så säger jag inte att Amd:s free-sync kommer vara dåligt,just för att det i stort sett inte finns ngn information/tester. Men det verkar ju som du och många fler här i tråden sitter på topphemlig info eftersom ni redan säger att det är bättre än Nvidias dito.

För att de har fullt upp med att få igenom det som standard? För att de nu jobbar med att få med sig skärmtillverkarna? För att de redan visat upp ett teknikdemo som visat att tekniken fungerar? De skulle ju kunna visa upp ett par laptopar igen men skulle det ge något mer än att visa att tekniken fortfarande fungerar precis som den gjorde första gången? Det lär komma betydligt mer genomarbetade demonstrationer senare när de fått fram sin logga och sin validering.

Du har ju skrivit en lång rad inlägg där du mer eller mindre påstår att det inte kommer fungera lika bra. Jag säger inte att det är tekniskt bättre än Nvidia. Jag tycker att deras koncept med en öppen standard är betydligt bättre men den tekniska biten har jag inte sagt är varken bättre eller sämre. Det finns däremot inget som tyder på att den skulle vara sämre som du och andra påstår. Det är ju i grund och botten samma sak. Hade det inte fungerat hade alla de journalister som stod och tittade på AMDs demonstration sagt att det inte fungerade. När ingen rapporterat något sådant så kan vi ju dra slutsatsen att det faktiskt fungerar. Tittar vi rent tekniskt finns det inte heller några tydliga hinder för att det skulle fungera sämre än Nvidias lösning. Så varför utgår du från att det kommer vara dåligt? Har du sett några som helst indikationer på att AMDs lösning kommer fungera sämre än Nvidias? De enda jag har sett som sagt att det inte är lika bra är Nvidia själva och de är ju knappast opartiska.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24