Intervju: AMD om dynamiska frekvenser med Project Freesync

Permalänk
Medlem

Just det, Nvidia har ju redan en mjukvaruteknologi som heter Adaptive V-sync.

Permalänk
Medlem
Skrivet av Buio:

Just det, Nvidia har ju redan en mjukvaruteknologi som heter Adaptive V-sync.

http://i.imgur.com/NYnelVG.png

Indeed. Minns att Nvidia stoltserade högljutt om deras banbrytande Adaptive V-sync, sedan blev det tvärtyst ett tag fram tills att G-sync kom.

Visa signatur

Nybörjare på Linux? Se hit! #15665841

Permalänk
Entusiast
Skrivet av Haibane:

TBH tror jag inte att freesync blir lika bra som G-sync. Nvidia är knappast så korkade att de inte gjode en gedigen beräkning och undersökning av andra möjligheter innan de gjorde valet att utvecka en ASIC.

Du missar en viktig poäng och det är Nvidias princip att alltid försöka låsa in sina kunder till sina egna tekniker. I princip alla saker de har är låsta för att på så sätt låsa in sina användare i deras ekosystem. Detta har pågått i evigheter. Från början var ju SLI låst till deras chipset och de släppte inte det innan de inte fick tillverka chipset längre.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Entusiast
Skrivet av Buio:

Just det, Nvidia har ju redan en mjukvaruteknologi som heter Adaptive V-sync.

http://i.imgur.com/NYnelVG.png

Skrivet av Atlas Tasume:

Indeed. Minns att Nvidia stoltserade högljutt om deras banbrytande Adaptive V-sync, sedan blev det tvärtyst ett tag fram tills att G-sync kom.

Adaptive V-sync är något helt annat än Adaptive Sync. Namnen är lika men de gör helt olika saker. Adaptive V-sync är bara en teknik som stänger av och sätter på V-sync automatiskt. Så V-sync är på över 60 FPS men sen stänger den av om frekvensen dyker under 60 FPS. På så sätt minskar man risken för tearing men det har fortfarande inget att göra med skärmens uppdateringsfrekvens.

http://www.sweclockers.com/nyhet/15278-nvidia-slapper-geforce...

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av Zotamedu:

Adaptive V-sync är något helt annat än Adaptive Sync. Namnen är lika men de gör helt olika saker. Adaptive V-sync är bara en teknik som stänger av och sätter på V-sync automatiskt. Så V-sync är på över 60 FPS men sen stänger den av om frekvensen dyker under 60 FPS. På så sätt minskar man risken för tearing men det har fortfarande inget att göra med skärmens uppdateringsfrekvens.

Du behöver inte förklara sånt som är känt, men att VESA valt Adaptive Sync som namn kan få problem om Nvidia trademarkat begreppet.

Permalänk
Medlem
Skrivet av MaloW:

Källa på att där är handskakning som ger förlust med Gsync? (Annan än från en kille som jobbar på AMD i intervju med SweC). Anandtech gjorde tex. en rejäl artikel på G-sync och kan inte minnas att dom skrev något om detta.

Anandtech sade du?

Enabling G-Sync does have a small but measurable performance impact on frame rate. After the GPU renders a frame with G-Sync enabled, it will start polling the display to see if it’s in a VBLANK period or not to ensure that the GPU won’t scan in the middle of a scan out. The polling takes about 1ms, which translates to a 3 - 5% performance impact compared to v-sync on. NVIDIA is working on eliminating the polling entirely, but for now that’s how it’s done.

http://www.anandtech.com/show/7582/nvidia-gsync-review

"A somewhat surprising impact of G-Sync is that it also causes a slight performance hit. The exact impact varies but between 3-5% of performance is lost compared to using V-Sync. Generally this should in theory be more than made up for by the overall smoother experience: 55 fps with G-Sync should be much better than 58fps with V-Sync. "

http://www.bit-tech.net/hardware/graphics/2013/12/23/nvidia-g...

"G-Sync looks super-smooth even across variable frame-rates, while v-sync off looks terrible in comparison. However, we did note a small performance hit in some scenarios."

http://www.eurogamer.net/articles/digitalfoundry-2014-nvidia-...

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Entusiast
Skrivet av Buio:

Du behöver inte förklara sånt som är känt, men att VESA valt Adaptive Sync som namn kan få problem om Nvidia trademarkat begreppet.

Nvidia har inget trademark på begreppet så det är ingen risk.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av buenofunk:

Läser man mellan raderna är det tydligt att detta är en budgetvariant av G-Sync. Tyvärr.

Man undrar ju i sådana fall vilka rader du har läst imellan. Nvidia släpper en teknik, som de i det tysta medger leder till en prestanda förlust på 3-5%. Men att det jobbar på att lösa detta... Känns ju seriöst. Köper du G-sync idag, kommer du med största sannolikhet behöva köpa en ny skärm när de löst problemen som uppstår i och med handskakningen. De jobbar alltså på att helt få bort handskakningen, det kanske borde ha tittat lite på teknik som redan fanns. AMD's Freesync (eller vad den nu kommer heta) har inte detta problem, och är även gratis, läste du det?

Jag hade inte köpt den här produkten, speciellt inte när detta kom fram. Vem vill köpa något som utvecklaren själv inte är helt nöjd med. Nvidia chansar på att folk inte får/tar reda på sådant här istället för att först fixa problemet och sedan lansera produkten.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem
Skrivet av elajt_1:

Det tar inte lång tid att googla. Som jag skrev, Nvidia har själva sagt att de jobbar på att får bort handskakningen.

Anandtech sade du?

Enabling G-Sync does have a small but measurable performance impact on frame rate. After the GPU renders a frame with G-Sync enabled, it will start polling the display to see if it’s in a VBLANK period or not to ensure that the GPU won’t scan in the middle of a scan out. The polling takes about 1ms, which translates to a 3 - 5% performance impact compared to v-sync on. NVIDIA is working on eliminating the polling entirely, but for now that’s how it’s done.

http://www.anandtech.com/show/7582/nvidia-gsync-review

"A somewhat surprising impact of G-Sync is that it also causes a slight performance hit. The exact impact varies but between 3-5% of performance is lost compared to using V-Sync. Generally this should in theory be more than made up for by the overall smoother experience: 55 fps with G-Sync should be much better than 58fps with V-Sync. "

http://www.bit-tech.net/hardware/graphics/2013/12/23/nvidia-g...

"G-Sync looks super-smooth even across variable frame-rates, while v-sync off looks terrible in comparison. However, we did note a small performance hit in some scenarios."

http://www.eurogamer.net/articles/digitalfoundry-2014-nvidia-...

Se där ja, man betalar 1500 spänn extra för en skärm, blir inlåst i all framtid till endast nvidia GPUs och får mindre prestanda. Otrolig teknik 10/10 Huangs!

Visa signatur

AW3423DW QD-OLED - Ryzen 5800x - MSI Gaming Trio X 3090 - 64GB 3600@cl16 - Samsung 980 Pro 2TB/WD Black SN850 2TB

Permalänk
Medlem

Teknikerna är inte likadana. G-sync gör skärmen till slav för grafikkortet. Freesync gör grafikkortet till slav för skärmen (via Vblank). Hur dessa två tekniker står sig mot varandra är ännu oklart.

Visa signatur

Case: Fractal Design Define S | Fans: 4x Noctua NF-a14 PWM140mm | Motherboard: Asus ROG Maximus XI Hero | CPU: i9-9900K | CPU-Cooler: Noctua NH-D15S dual fan | PSU: Corsair AX1500i | GPU: ASUS ROG STRIX GeForce RTX 3060Ti OC V2 8GB | RAM: 32 GB DDR4 Kingston HyperX Fury Black 2666mhz Cl15 | Storage: 1x Kingston Fury Renegade M.2 2TB SSD 1x OCZ Vector 180 480GB SSD, 1x OCZ Vector 512GB SSD | Screen: 24" Acer Predator XB240HA G-Sync 144hz | Sound Card: Asus Xonar Essence STX II | Aux: Cherry MX 3.0S Gaming Keyboard. EVGA X10 Carbon

Permalänk
Medlem

för mig låter det som att det är själva VESAs "adaptive sync" som är själva hjärnan bakom det hela och att freesync bara är en instruktion för grafikkortet att utnyttja det?

isf bör ju Nvidia kunna göra samma sak med hjälp av en ny drivrutin eller något? och skrota G-sync. om det nu fungerar lika

Permalänk
Medlem
Skrivet av elajt_1:

Anandtech sade du?

Enabling G-Sync does have a small but measurable performance impact on frame rate. After the GPU renders a frame with G-Sync enabled, it will start polling the display to see if it’s in a VBLANK period or not to ensure that the GPU won’t scan in the middle of a scan out. The polling takes about 1ms, which translates to a 3 - 5% performance impact compared to v-sync on. NVIDIA is working on eliminating the polling entirely, but for now that’s how it’s done.

http://www.anandtech.com/show/7582/nvidia-gsync-review

"A somewhat surprising impact of G-Sync is that it also causes a slight performance hit. The exact impact varies but between 3-5% of performance is lost compared to using V-Sync. Generally this should in theory be more than made up for by the overall smoother experience: 55 fps with G-Sync should be much better than 58fps with V-Sync. "

http://www.bit-tech.net/hardware/graphics/2013/12/23/nvidia-g...

"G-Sync looks super-smooth even across variable frame-rates, while v-sync off looks terrible in comparison. However, we did note a small performance hit in some scenarios."

http://www.eurogamer.net/articles/digitalfoundry-2014-nvidia-...

Intressant, måste jag ha missat! Tack!

Visa signatur

Intel i7-7700k @ 4.9Ghz - Noctua NH-U12P SE2 - MSI GTX 1070 Armor OC - AsRock Z270 Extreme4 - G.Skill Ripjaws V DDR4 3200MHz CL16 2x8GB - Corsair RM750x 750W - Samsung 970 EVO 500GB - Acer Predator X34 - Silverstone RV02-E - Asus Xonar Essence STX II 7.1 - Mionix Naos 8200 - Corsair Gaming MM400 - Das Keyboard 4 Ultimate MX Brown - Beyerdynamic DT990 Pro 250 Ohm - Antlion ModMic 4.0 Unidirectional

Permalänk
Medlem
Skrivet av Zotamedu:

Adaptive V-sync är något helt annat än Adaptive Sync. Namnen är lika men de gör helt olika saker. Adaptive V-sync är bara en teknik som stänger av och sätter på V-sync automatiskt. Så V-sync är på över 60 FPS men sen stänger den av om frekvensen dyker under 60 FPS. På så sätt minskar man risken för tearing men det har fortfarande inget att göra med skärmens uppdateringsfrekvens.

http://www.sweclockers.com/nyhet/15278-nvidia-slapper-geforce...

Jag är medveten om det.

Skickades från m.sweclockers.com

Visa signatur

Nybörjare på Linux? Se hit! #15665841

Permalänk
Medlem
Skrivet av osca_r_00:

Ungefär hur mycket mer kommer en skärm med stöd för AS kosta kontra en utan? 300-500kr??

Känns ju rätt rimligt att skärmtillverkarna kommer vilja försöka tjäna en slant.

Släng i någon billig TN-panel av låg kvalitet som kan köras i 120hz, släng på ett Freesync-compatible klistermärke och lägg på en femhundring och marknadsför som gamerskärm.

Har ju funkat för BenQ som länge varit (och är fortfarande) ett lågbudgetmärke, lite fler megahurtz, mixlarpixlar och responsetime så köper ju folk grejerna ändå, trots att det är rätt undermåliga komponenter och paneler.

Permalänk
Medlem

Det som talar emot:

Skrivet av AMD:

horizontal tearing, but Project FreeSync also eliminates tearing as a rule / "i regel detta".

Inte 100%?

Citat:

"fördel/nackdel mot g-sync?"

Ingen nackdel alls?.. inget svar. (dock ska "lightboost" ej funka enligt Buio).

Och OM.. Nvidia inte tar till sig freesync så blir man låst till AMD med Freesync.

Permalänk
Medlem
Skrivet av hejsann:

Det som talar emot:

Inte 100%?
Ingen nackdel alls?.. inget svar. (dock ska "lightboost" ej funka enligt Buio).

Och OM.. Nvidia inte tar till sig freesync så blir man låst till AMD med Freesync.

Låst och låst? Det är en öppen standard som vem som helst kan använda, och utan att betala royalties till någon. Nu råkar det dock bara finnas 2 aktörer i dagsläget, men vem vet, Intel kanske är på ingående =).

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem
Skrivet av hejsann:

Det som talar emot:

Inte 100%?
Ingen nackdel alls?.. inget svar. (dock ska "lightboost" ej funka enligt Buio).

Och OM.. Nvidia inte tar till sig freesync så blir man låst till AMD med Freesync.

Tekniken är öppen och funkar på all hårdvara som stödjer vesa standarden för detta.

D.v.s. kan Intel, Intel OpenSource, Radeon, Nouveau implementera detta så fort det är möjligt på hårdvaran. Dock blir det senare (Nouveau) sen då nVidia inte hjälper något vidare på OpenSource implementeringen.

Visa signatur

Arch - Makepkg, not war -||- Gigabyte X570 Aorus Master -||- GSkill 64GiB DDR4 14-14-15-35-1T 3600Mhz -||- AMD 5900x-||- Gigabyte RX6900XT -||- 2x Adata XPG sx8200 Pro 1TB -||- EVGA G2 750W -||- Corsair 570x -||- O2+ODAC-||- Sennheiser HD-650 -|| Boycott EA,2K,Activision,Ubisoft,WB,EGS
Arch Linux, one hell of a distribution.

Permalänk
Medlem
Skrivet av JohanFalk:

Låter bra, dock slår jag vad om att det kommer bli lite fanboy-aktigt här...

Du hade helt rätt. Inte oväntat..kanske lite sorgligt

Skickades från m.sweclockers.com

Permalänk
Inaktiv
Skrivet av Alucius:

Teknikerna är inte likadana. G-sync gör skärmen till slav för grafikkortet. Freesync gör grafikkortet till slav för skärmen (via Vblank). Hur dessa två tekniker står sig mot varandra är ännu oklart.

Läs om läs rätt. G-sync och Freesync gör så att skärmen måste anpassa sig efter grafikortet, medans V-sync gör så att grafikkortet måste anpassa sig till skärmen. Ditt slav snack stämmer inte. En monitor kan inte styra över ett grafikkort.

Permalänk
Medlem

Undrar om freesync "klarar av" windowed mode till skillnad från g-sync ?

Visa signatur

Intel Core i7-4790K CPU @ 4.00GHz | MSI Radeon HD7850 2048MB TWIN FROZR III OC |Corsair Vengeance DDR3 PC3-12800 1600MHz (2x8GB) | Gigabyte GA-Z97X-Gaming 3 - ATX / Intel Z97

Permalänk
Medlem
Skrivet av Commander:

Nouveau implementera detta så fort det är möjligt på hårdvaran. Dock blir det senare (Nouveau) sen då nVidia inte hjälper något vidare på OpenSource implementeringen.

Häftigt, öppna drivisar för nvidia.
Vore bra om freesync blir stöttat av nvidia dock.

Permalänk
Medlem
Skrivet av Hardware guy:

Eftersom deras kretsar inte är kapabla till variabel refresh-rate on-the-fly så har de inget annat alternativ än att byta styrelektroniken och placera en minnesbuffert i skärmen som kan portionera ut bilderna i lagom takt.

Ska man se till nVidias tidigare tillvägagångssätt är det med egna kretsar man låser in kunderna. Tex NV200 som de tvingade på moderkortstillverkarna för dyra pengar för att SLI skulle kunna aktiveras. Har ett svagt minne av att nVidia tog $40 för kretsen. Med hackade drivrutiner fungerade SLI bättre på icke SLI moderkort än SLI-certifierade moderkort bestyckade med NV200. Det tog dock inte lång tid innan detta stoppades.

Om jag inte minns fel var NV200 Kretesen till för att få 2st pcie 2.0 på 775 soketen. inte för att få SLI jag hade sli på på mitt striker exteme och mitt striker 2 formula där det senare hade nv200.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem
Skrivet av hACmAn:

Om jag inte minns fel var NV200 Kretesen till för att få 2st pcie 2.0 på 775 soketen. inte för att få SLI jag hade sli på på mitt striker exteme och mitt striker 2 formula där det senare hade nv200.

Jag tänkte enbart på intel chipset när jag skrev inlägget. Efter Core2 hade nVidia inte några egna chipset, och tvingade då på moderkortstillverkarna NV200 för att tillåta SLI.

Visa signatur

Vägra fx 3of4 Pi 1M 1.84 s Memory remapping
Minnen har ingen egen hastighet. Märkningen anger bara vilken hastighet minnena uppges klara

Permalänk
Medlem
Skrivet av Hardware guy:

Jag tänkte enbart på intel chipset när jag skrev inlägget. Efter Core2 hade nVidia inte några egna chipset, och tvingade då på moderkortstillverkarna NV200 för att tillåta SLI.

ok. det hade jag missat trodde det bara var en lisens kostnad och inte att NV200 behövdes.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.