Nvidia G-Sync i bärbar dator utan särskild modul – förvillande likt AMD Freesync

Permalänk
Medlem
Skrivet av Imaculent:

Vilka knasbollar de är...

Men om de är som de säger - att det blir en praktiskt skillnad med och utan modulen. Så borde det också vara skillnad mellan G-sync och FreeSync.
Ser fram emot tester som säger ifall det ena är bättre än det andra.

Vad jag har kunna googla mig till så krävs det att grafikkortet stöder "variable VBLANK"(både hårdvara samt drivers?) samt att skärmen stöder VBLANK. (Vilket finns i vissa laptop skärmar därför använde AMD det i deras först demo)

VBLANK stöd inte av alla AMD GPUer så antagligen är det något hårvarustöd som behövs. Jag antar att Nvidia valde att inkludera sin egna modul för att kunna eliminera vissa frågetecken när det gäller krav på hårdvara från skärmen.

Frågan återstår om nvidias GPUer stöder VBLANK eller om det bara finns på deras mobila GPUer.

Visa signatur

NZXT H5 Flow Starfield Limited Edition Chassi // AMD Ryzen 7950X // Gigabyte RX 9070 XT Elite // Corsair 6000Mhz 64GB// Gigabyte X870-I // Corsair HX1500I 1500W // Crutical T705 1TB Nvme SSD // Samsung 980 PRO 2TB Nvme SSD // Samsung 980 PRO 2TB Nvme SSD //Samsung 850 EVO 1TB SSD //Samsung Odyssey Neo G9 // Bazzite Gnome OS

Permalänk
Inaktiv
Skrivet av tvelander:

Jag snackar om att folk kanske kan vänta lite och se om det stämmer som Nvidia säger eller om det är BS, men man gör inte en hel krets för skojs skull.

Funkar Free-sync lika bra som G-sync säger jag, underbart då kan vi skrota G-sync för det kostar bara pengar.

Det är tydligt att nvidia inte går att lita på. 4GB grejen med 970 är bara ännu ett bevis. Nu är det lita på oss att gsync med modulen är så mycket bättre än freesync som är rena skiten i jämförelse (utan att de ger några detaljer om varför den är bättre eller gud förbjude bevis).
Läckta drivrutinen fungerar dåligt men det är knappast bevis på att gsync med modul är bättre då det är tidig version av drivrutin och även om den skulle vara mogen skulle det knappast vara första gången nvidia medvetet saboterar för andra bara för att få sina inlåsta tekniker att se bättre ut i jämförelse.
De gör bra kort, 970 och 980 är imponerande kort men de kan inte låta bli att dra fula manövrar för att lura eller låsa in sina kunder.

Jag bryr mig om att hårdvara jag köper är bra men tänker aldrig ge pengar (om jag har valet) till ett företag som behandlar mig som en idiot som ska vara överlycklig att han ens får köpa deras produkter.

Tagit bort flamebait/fanboy-snack
Permalänk
Medlem
Skrivet av Ozzed:

Jag gillar Nvidia men alltså detta är ju bara förjävla tramsigt. ALLA tjänar på öppna standarder. Nu när en exakt likadan teknik utan hårdvarukrav standardiserats borde de bara ge upp och stödja freesync istället. Det är dålig PR att hålla på som de gör nu. Man skäms ju för fan för att ha ett Nvidia-kort i burken när man läser det här!

fast då kan de ju inte kalla det en Nvidia specifik funktion ungefär som när jag skulle spela dying light som är ett gameworks spel och såg NDOF, nvidia depth of field,

Och jag blev liksom va? ska de återuppfinna hjulet när det ändå hållet på? så att de kan kalla det Nvdia wheel? och det är proprietär lösning för bilar med nvidias senaste tegra kretsxD

Permalänk
Medlem
Skrivet av Flamso:

Det är fortfarande den enda panelen med de egenskaperna som finns på marknaden...

Jo fast nu har ju 120hz IPS @1440p funnits något år, under 3 lax får man ge dessutom, inbillar du att dom där sista 24hz:en gör nån praktisk skillnad tycker jag synd om dig.
Den största fördelen är att man kan köra 3d i 72Hz istället för 60.

Permalänk
Discokungen
Skrivet av Dallebull:

Jo fast nu har ju 120hz IPS @1440p funnits något år, under 3 lax får man ge dessutom, inbillar du att dom där sista 24hz:en gör nån praktisk skillnad tycker jag synd om dig.
Den största fördelen är att man kan köra 3d i 72Hz istället för 60.

Om du syftar på de Koreanska skärmarna så är det inte samma sak, vad jag vet. De tester jag sett är att de släpar efter rätt ordentligt.

Visa signatur

AMD 9800X3D - Corsair 32GB 6000 CL30- Gigabyte B650 Aorus Elite - Inno3D 4090 - Intel 900p - CaseLabs SMA8 - LG 42C2 - Asus Loki 1000W SFX-L - Aquaero 6 - Vattenkyld - Steam Deck LCD 1TB

Permalänk
Medlem

PR nightmare!

Visa signatur

i9 10980XE | 128 GB DDR4-3600 | ASUS X299 WS PRO | RTX 5080 Founders Edition
R7 5700X | 64 GB DDR4-3200 | Gigabyte B550 Gaming X V2 | RTX 2080 Ti Founders Edition

Permalänk
Master of Overkill
Skrivet av Dallebull:

Jo fast nu har ju 120hz IPS @1440p funnits något år, under 3 lax får man ge dessutom, inbillar du att dom där sista 24hz:en gör nån praktisk skillnad tycker jag synd om dig.
Den största fördelen är att man kan köra 3d i 72Hz istället för 60.

Testat båda, går inte ens jämföra.

Visa signatur

CASE CaseLabs SMA8-A + CaseLabs Nova X2M CPU 9900k @5.3GHz (No AVX) 7950X3D @5.7GHz GPUs RTX 3090 FE + RTX 3080 FE RAM 2x32GB Corsair Dominator Platinum 3533MHz CL13 + 2x32GB 6000MHz CL30 Dominator Titanium PSU EVGA T2 1600W + Corsair SFF 750W SSD Corsair Force MP700 Pro M.2 NVMe 2.0 Gen 5 2TB, 2x Samsung 990 Pro 2TB M.2 Headphones Audeze Maxwell + Audeze LCD-2 + Moon Cable DAC/AMP Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard ASUS ROG Crosshair X670E Hero + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Entusiast

Freesync, Adaptive Sync, G-Sync.... vad kan egentligen vara skillnaden? utöver kostnader att implementera?
Det hela går ut på att låta bildpanelen anpassa sin bilduppdatering till bilduppdateringarna i grafikkortet för att eliminera så kallad "tearing", eller bilddelning som jag skulle kallade på svenska.
Hur kan den ena tekniken egentligen vara bättre än den andra? Slutresultatet är ju densamma. Det är ju knappast så att bildkvalitén i sig kan påverkas. (Och även om den gör det, så beror det på själva bildpanelen, och inte bildsynkningstekniken bakom)

nVidias påstående att deras teknik är bättre än andras måste backas upp med konkreta bevis innan jag köper det.

Den enes kemiskt rena vatten kan ju inte vara bättre än den andres kemiskt rena vatten?

Visa signatur

Bästa programmen till Linux - v2.0
Linux-guide: Val av grafisk miljö. (Att välja distribution).
-
Everyone should have a SGoC in their systems (SGoC: SysGhost on a Chip)

Permalänk
Master of Overkill
Skrivet av SysGhost:

Freesync, Adaptive Sync, G-Sync.... vad kan egentligen vara skillnaden? utöver kostnader att implementera?
Det hela går ut på att låta bildpanelen anpassa sin bilduppdatering till bilduppdateringarna i grafikkortet för att eliminera så kallad "tearing", eller bilddelning som jag skulle kallade på svenska.
Hur kan den ena tekniken egentligen vara bättre än den andra? Slutresultatet är ju densamma. Det är ju knappast så att bildkvalitén i sig kan påverkas. (Och även om den gör det, så beror det på själva bildpanelen, och inte bildsynkningstekniken bakom)

nVidias påstående att deras teknik är bättre än andras måste backas upp med konkreta bevis innan jag köper det.

Den enes kemiskt rena vatten kan ju inte vara bättre än den andres kemiskt rena vatten?

Hoppas det kommer upp en förklaring när free-sync skärmarna kommer så man ens förstår varför g-sync chip finns.

För behövs dom inte betalar jag gärna mindre cash.

Visa signatur

CASE CaseLabs SMA8-A + CaseLabs Nova X2M CPU 9900k @5.3GHz (No AVX) 7950X3D @5.7GHz GPUs RTX 3090 FE + RTX 3080 FE RAM 2x32GB Corsair Dominator Platinum 3533MHz CL13 + 2x32GB 6000MHz CL30 Dominator Titanium PSU EVGA T2 1600W + Corsair SFF 750W SSD Corsair Force MP700 Pro M.2 NVMe 2.0 Gen 5 2TB, 2x Samsung 990 Pro 2TB M.2 Headphones Audeze Maxwell + Audeze LCD-2 + Moon Cable DAC/AMP Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard ASUS ROG Crosshair X670E Hero + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem
Skrivet av SysGhost:

nVidias påstående att deras teknik är bättre än andras måste backas upp med konkreta bevis innan jag köper det.

Men det har ju gått typ ett år och ingen har kunnat motbevisa det påståendet....

Permalänk
Medlem

Känns diskussionen har urartat en aning.
Klart är att både g-sync och freesync kräver uppdaterad hårdvara, i det ena fallet rör det sig om hårdvara framtaget av Nvidia i samarbete med Asus och i det andra uppdaterad (VESA certifierad) hårdvara för att stödja adaptive-sync. Vad gäller skillnad på kvalitet och funktioner så kan vi endast gissa just nu då det än inte finns några tillförlitliga tester.

Min gissning är att Adaptive-sync kommer går framåt just av den enkla anledningen att det är en öppen standard så även om det just nu innebär extra kostnader i form av en ny scaler i skärmar så slipper tillverkarna licenskostnader till Nvidia.
Nvidia kommer inte kunna stå mot detta utan de kommer också bli tvungna att börja stödja adaptive-sync, sen hur det slår mot den egna g-sync beror nog på vilka skillnader som finns mellan teknikerna samt hur duktig man är på att peka på dessa (trogna kunder finns iaf).

Visa signatur

/havoc

Permalänk
Medlem
Skrivet av Dallebull:

Jo fast nu har ju 120hz IPS @1440p funnits något år, under 3 lax får man ge dessutom, inbillar du att dom där sista 24hz:en gör nån praktisk skillnad tycker jag synd om dig.
Den största fördelen är att man kan köra 3d i 72Hz istället för 60.

Att säga att överklockad IPS i 120Hz är bra för spel jämfört med 144Hz TN är ungefär som att säga att TN är bra för de som jobbar professionellt med Photoshop.

Permalänk
Medlem

Jag förstår inte nyttan av gsync eller freesync då adaptive vsynd redan finns i displayportstandarden. Freesync och adaptive vsync är samma sak.

Permalänk
Medlem

Oavsett så är det gamern som får skitet i längden

Grafikkort som inte håller nu skärmar vad blir nästa?

Precis sånt här som får mig slopa PC helt satsa bara på konsoll framöver när PC spelen ändå blir sämre omkodade

Permalänk
Medlem
Skrivet av Buio:

Att säga att överklockad IPS i 120Hz är bra för spel jämfört med 144Hz TN är ungefär som att säga att TN är bra för de som jobbar professionellt med Photoshop.

jag tror problemet här ligger fundamentalt i frågan vad man personligen föredrar, bäst färger eller högst uppdatering, så diskussionen är lite moot då de förmodligen inte kommer hålla med varandra hur länge de än diskuterar, personligen ser jag nöjet i högre Hz Men jag sållar mig ändå till lägret att jag tar hellre 60 Hz och en trevlig IPS panel, än 120/144 Hz TN panel

- då jag personligen får mer inlevelse av färgranna världar vilket gör grafiken i ett spel ännu vackrare Vs snabbare reaktionsförmåga och mjukare rörelser:),
När det gäller ms debatten mellan de två har jag faktiskt inte sett en modern ips panel där det skulle vara ett problem:P

sen hoppas jag att jag kan få det bästa av 2 världar men det är nog ett litet tag kvar dit:)

Permalänk
Avstängd
Skrivet av Flamso:

Det är fortfarande den enda panelen med de egenskaperna som finns på marknaden...

Det gör den inte mer prisvärd, fortfarande överprisad med kass panel, för det priset förväntar man sig en mycket bättre skärmpanel.

Visa signatur

The problem in society today: Smart phones, stupid people.

Permalänk
Inaktiv
Skrivet av Ozeroun:

Oavsett så är det gamern som får skitet i längden

Grafikkort som inte håller nu skärmar vad blir nästa?

Precis sånt här som får mig slopa PC helt satsa bara på konsoll framöver när PC spelen ändå blir sämre omkodade

Nvidias problem är nog långt ifrån över. Förvånar mig inte on det kommer något nytt avslöjande snart, kanske relaterat till Gameworks och The way its meant to be played-programmet. Skulle inte förvåna mig om det finns något riktigt smaskigt där.

Skickades från m.sweclockers.com

Permalänk
Entusiast

Så om jag förstår skillnaden mellan "Adaptive VSync, och de övriga teknikerna nämnda i artikeln, så är det inte riktigt samma sak.

Adaptive VSync är helt enkelt en enklare teknik som låter grafikkortet aktivera elelr deaktivera klassisk vsync beroende på hur många fps som genereras. Bildskärmens uppdateringsfrekvens är statisk. Den påverkas inte.

G-Sync och Freesync däremot är aktiva tekniker som styr bilpanelens uppdateringsfrekvens mer direkt för att matcha grafikkortets utgående fps. Det vill säga att bildskärmens uppdateringsfrekvens är dynamiskt. Detta skall enligt förespråkare ge ett bättre flyt utan tearing, och utan den fps-broms som VSync annars skapar (Oavsett om det är vanlig VSync eller Adaptive VSync).

Men min ursprungliga fråga kvarstår:
Vad är den egentliga praktiska skillnaden mellan Freesync och G-Sync? Utöver implementeringskostnaderna (Licensavgifter med mera)
Jag förstår det som att AMD's Freesync är bättre då den licensen är fri för vem som helst att implementera. Till och med nVidia kan implementera Freesync om de bara vill. Fast det kan de ju inte göra. Vore ju löjligt. Det handlar ju om prestige och princip. Att implementera Freesync i nVidias hårdvara vore som att erkänna nederlag.

nVidias G-Sync däremot kräver dyrare hårdvara och är dessutom belagd med licensavgifter. (Och inga billiga sådana heller).
I övrigt så är de två teknikerna rätt och slätt likadana. De ger samma resultat.

...eller? Korrigera mig gärna. Helst med konkreta fakta.

Visa signatur

Bästa programmen till Linux - v2.0
Linux-guide: Val av grafisk miljö. (Att välja distribution).
-
Everyone should have a SGoC in their systems (SGoC: SysGhost on a Chip)

Permalänk
Medlem
Skrivet av anon5930:

Nvidias problem är nog långt ifrån över. Förvånar mig inte on det kommer något nytt avslöjande snart, kanske relaterat till Gameworks och The way its meant to be played-programmet. Skulle inte förvåna mig om det finns något riktigt smaskigt där.

Skickades från m.sweclockers.com

Det kan ju mycket väl hända då folk har nvidias produkter under luppen nu och de lär vara försiktiga med de kommande lanseringarna också nvidia sitter i en situation/position just nu som ingen hårdvarutillverkare någonsin vill sitta i, då jag inte tror många av de stora företagen skulle må så jätte bra att hårdgranskas så, även om medierna fortfarande är relativt tysta så har nvidias kvalitets rykte tagit en smäll,

vad de som blir ledsna över att det är just nvidia som är under luppen nu förstår jag inte och de som gnäller på att andra kritiserar nvidia framstår som de mest gnälliga, hade det varit intel eller amd hade vi gjort exakt samma sak mot de med skillnaden att samma folk som försvarar nvidia nu inte skulle försvara de andra företagen,

De enda jag märkt som är relativt skyddade mot detta är apple för de har aldrig fel enligt dem själva, inte ens när en domstol berättar för det för dem:P

Permalänk
Datavetare

Har inte satt mig in i G-Sync och Freesync/adaptiv sync (vilket inte är samma sak som adaptiv v-sync) tidigare. Efter att läst på i alla fall lite granna om båda teknikerna verkar de ju väldigt snarlika, båda kräver som flera redan påpekat, förändringar i skärmen.

Nvidia satt ihop en egen FPGA baserad krets (som inte är speciellt billigt men gör det möjligt att snabbt få ut en fungerande produkt) som monitortillverkarna kan stoppa in för att ersätta den krets som i normala fall sköter omvandling av RGB/DVI/DP signaler till de signaler LCD-panelen vill ha, detta inkluderar också processen att skala upp bilder som har lägre upplösning än panelen.

Freesync/A-sync kräver i stället att den krets som redan finns i skärmen uppdateras med funktioner för att hantera variabel uppdateringsfrekvens på skärmen, d.v.s. det kommer inte heller bli gratis.

För att dra en parallell: G-sync är som Mantle, tillverkarspecifik lösning som gör det möjligt att snabbt få ut något. Medan A-sync är DX12, en "standardlösning" (DX är i praktiken standard för spelutveckling på PC) som av naturligt skäl kommer ta lite längre tid att få ut då det är fler inblandade parter att ta hänsyn till.

Min gissning är att i båda fallen blir speciallösningarna kortlivade parenteser i datorhistorien.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Discokungen
Skrivet av Rajat:

Det gör den inte mer prisvärd, fortfarande överprisad med kass panel, för det priset förväntar man sig en mycket bättre skärmpanel.

Det har jag aldrig påstått. Vill man ha de egenskaperna skärmen har så är det enda alternativet. Inte svårare än så. Vill man betala för det så kör hårt, annars behöver man inte köpa den.

Visa signatur

AMD 9800X3D - Corsair 32GB 6000 CL30- Gigabyte B650 Aorus Elite - Inno3D 4090 - Intel 900p - CaseLabs SMA8 - LG 42C2 - Asus Loki 1000W SFX-L - Aquaero 6 - Vattenkyld - Steam Deck LCD 1TB

Permalänk
Medlem
Skrivet av anon127948:

Undrar hur nvidia fanboysen kommer bortförklara denna manöver. Helt otroligt hur mycket svin saker ett företag kan göra på så kort tid. Måste vara rekord även för nvidia.

Skrivet av anon200632:

Jag har alltid haft nvidia och ska bara försöka reklamera mitt 970, sedan kommer jag inte titta åt det hållet mer.

Lugn... Ni kommer båda köpa deras kort igen... ge det några år bara. Förr var det Nvidias drivrutinsfusk för 3Dmark, deras usla DX9 implementation och en kaffekokare som blev spöad i DX9 av ett low end AMD kort gen efter.

Nvidia har gjort detta sedan jag såg de första om-märkta Ti480 korten eller vf det var... uselt kort med AGP 8X som skulle vara bättre än Ti4200, och de kommer göra det varje chans de får, gång på gång, så länge folk köper det.

Varför?
Citerar ett perfekt svar nedan:

Skrivet av weawer:

"varför vägrar då Nvidia att ge stöd för den öppna standarden i fristående skärmar?"
TO MAKE MONEEEYS

Tagit bort citat & svar
Permalänk
Medlem
Skrivet av anon5930:

Nvidias problem är nog långt ifrån över. Förvånar mig inte on det kommer något nytt avslöjande snart, kanske relaterat till Gameworks och The way its meant to be played-programmet. Skulle inte förvåna mig om det finns något riktigt smaskigt där.

Skickades från m.sweclockers.com

Är radeon bättre med värmeproblem då?

Permalänk
Medlem

Blir lite besviken när jag läser denna nyhet. Nvidia sjunker bara mer och mer i mina ögon. Gillar inte företag som inte kör med öppna kort samt är allmänt tramsiga.

Skrivet av Ozeroun:

Är radeon bättre med värmeproblem då?

Kallar du amds kort som är 5-10 grader varmare än nvidias, i full load, för att ha värmeproblem? "ok"...

Visa signatur

Chassi: Fractal Meshify Skärm: LG C2 oled GPU: 6950XT CPU: 5800X3D SSD: 480GB, M2 3TB PSU: Dark Power Pro 1,5KW Mobo: TUF GAMING X570-PLUS RAM: 32GB Ripjaws @ 3600MT Mus: Logitech G502X Matta: Steelseries QcK Heavy Tbord: Logitech MX Mech Mini Lurar: DT1990 Pro OS: Win10Pro AI: Tascam 20x20 Monitorer: Yamaha HS7 Router: Wyse 5070 @ opnsense WIFI: Ubiquiti U7 Pro Switch: Zyxel 2.5Gbit. Citera när ni svarar! :)

Permalänk
Inaktiv
Skrivet av Paddanx:

Vet du ens det själv? Du har som sagt rejält imponerande saker, som får de flesta att dregla. Men du byter delar rätt ofta, så minns du vilka delar som är kvar, eller vilka som är nya?

Edit: Dock skulle jag aldrig klassa sig som fanboy av Nvidia, utan mer fanboy av dregel-framkallande hårdvara (vilket är en positiv sak)

Lugn... Ni kommer båda köpa deras kort igen... ge det några år bara. Förr var det Nvidias drivrutinsfusk för 3Dmark, deras usla DX9 implementation och en kaffekokare som blev spöad i DX9 av ett low end AMD kort gen efter.

Nvidia har gjort detta sedan jag såg de första om-märkta Ti480 korten eller vf det var... uselt kort med AGP 8X som skulle vara bättre än Ti4200, och de kommer göra det varje chans de får, gång på gång, så länge folk köper det.

Varför?
Citerar ett perfekt svar nedan:

Fel. Har inte nvidia grejer. Jag köper AMD GPUs främst för att de inte är lika sviniga, tekniken är snarlik, har aldrig haft problem med drivrutiner och med lite tur stödjer det också AMDs CPU verksamhet så att intel inte blir ensam kvar.

Skillnaden i FPS eller annat är inte i närheten så stor att jag ska ge mina pengar till ett företag som ständigt drar fula tricks på sina egna kunder (säger inte att AMD inte gjort dumma saker för det har de men inte i närheten av samma utsträckning och de försöker faktiskt jobba med öppna standarder nu för tiden).

Permalänk
Avstängd
Skrivet av Ozeroun:

Är radeon bättre med värmeproblem då?

Det finns inget värmeproblem,däremot hade referenskorten usel kylare så dom låter en del under last.Hade dom haft värmeproblem så hade alla kort gått sönder direkt när man startar datorn.Då är det ett problem.Observera att jag kör med nvidia nu.

Visa signatur

FD refine S Msi x99s sli plus 5930k@4400mhz NH-D14 Asus GTX 980 Strix SLI 16gb gskill ripjaws ddr4 3ghz Os Samsung 950 pro 512gb NVME Spel samsung 840/850 evo/pro Win 10 Pro Corsair Ax850 Gold Asus PG278Q Rog Swift

Permalänk
Medlem
  • G-Sync med modul är en hårdvarubuffer som uppdaterar LCD-panelens scaler när en ny bild finns tillgänglig från GPU. Om det inte finns en ny bild så kommer den att uppdatera panelen med ett givet intervall med en gammal bild till det finns en ny att visa. G-Sync modulen kan variera uppdateringshastigeten mellan 30Hz och 144Hz. Om FPS i spelet är lägre än detta så kommer modulen att uppdatera panelen med en gammal bild.

  • Adaptive Sync är en VESA standard som genom DP 1.2a kan låta GPU uppdatera skärmen med ojämna mellanrum (dvs när en bild blir redo för visning). Teknologin kan användas för G-Sync liknande funktionalitet eller för att spara ström och bandbredd i mobila applikationer. Med en LCD som har Panel Self Refresh (PSR) behöver inte GPU skicka samma bild flera gånger, utan endast uppdaterade bilder behöver skickas över till LCD panelen (som uppdaterar sig själv om det blir för lång tid mellan uppdateringarna från GPU). Detta gör att man kan spara in på hur mycket data som behöver skickas i en enhet och därmed spara ström.

  • Freesync är ett öppet initiativ av AMD för att standardisera variabel bildhastighet i spel och film genom att använda sig av Adaptive Sync. Om en skärm och en GPU stödjer FreeSync så ska det fungera "automatiskt". Freesync stödjer uppdateringshastigheter mellan 36-240Hz, 21-144Hz, 17-120Hz och 9-60Hz.

G-Sync utan modul är teoretiskt möjligt i en miljö där man kan kontrollera både GPU och LCD Panel. En traditionell laptop inte använder sig av en scaler i traditionell mening (däremot finns det logik för eDP och en T-Con) eftersom panelens upplösning är känd och GPU kan skala direkt till native upplösning (1:1 pixelmapping) och då finns det ju inget ställe att montera en G-sync modul. Genom att låta GPU latcha panelens uppdatering så kan man få en funktion som motsvarar G-Sync utan modul.

Detta är det enda vettiga sättet att aktivera en funktion motsvarande G-Sync i "allt i ett"-enheter.

Permalänk
Inaktiv
Skrivet av Sirme:

Det kan ju mycket väl hända då folk har nvidias produkter under luppen nu och de lär vara försiktiga med de kommande lanseringarna också nvidia sitter i en situation/position just nu som ingen hårdvarutillverkare någonsin vill sitta i, då jag inte tror många av de stora företagen skulle må så jätte bra att hårdgranskas så, även om medierna fortfarande är relativt tysta så har nvidias kvalitets rykte tagit en smäll,

vad de som blir ledsna över att det är just nvidia som är under luppen nu förstår jag inte och de som gnäller på att andra kritiserar nvidia framstår som de mest gnälliga, hade det varit intel eller amd hade vi gjort exakt samma sak mot de med skillnaden att samma folk som försvarar nvidia nu inte skulle försvara de andra företagen,

De enda jag märkt som är relativt skyddade mot detta är apple för de har aldrig fel enligt dem själva, inte ens när en domstol berättar för det för dem:P

Jo, framtida grafikkort från Nvidia kommer nog granskas betydligt hårdare, förhoppningsvis även kort från AMD, så man verkligen ser om allt ska fungera som det ska. Personligen är jag lite besviken på att exempelvis Ars Technica inte rapporterat om detta, men samtidigt så är det kanske lite utanför deras besvakningsområde.

Det finns ju alltid de som måste försvara "sitt" märke. Rätt uppenbart vilka som, i detta fall, försvarar Nvidia. Det har samtidigt gått väldigt lugnt, jag tror inte det hade varit lika lugnt om det varit något annat företag som avslöjats. Det enda drama som syns är försvararna som ska ställa upp för "sitt" företag typ. Problemet med GTX 970 och minnet hade upptäckts förr eller senare, var nog mest en tidsfråga speciellt när mer krävande spel som pressar minnet dyker upp. Vad som gäller med G-sync blir nog rätt uppenbart om någon vecka när Freesync-recensionerna bör dyka upp också.

Spännande tider helt klart även om det är trist för de konsumenter som drabbas. Något jag tycker är viktigt att komma ihåg är att fienden inte är konsumenten som har det andra företagets produkter utan företagen som försöker blåsa oss. Vi har inget att vinna på att gå dessa storföretags ärenden åt dom.

Skrivet av Ozeroun:

Är radeon bättre med värmeproblem då?

Som flera redan hunnit besvara dig så finns det inget värmeproblem, speciellt då med modeller med Sapphires Tri-X kylning. De går varmare än motsvarande Nvidia-kort såklart men att kalla det för ett problem är att överdriva det hela rejält.

Permalänk
Geeks
SweClockers
Skrivet av SysGhost:

Så om jag förstår skillnaden mellan "Adaptive VSync, och de övriga teknikerna nämnda i artikeln, så är det inte riktigt samma sak.

Adaptive VSync är helt enkelt en enklare teknik som låter grafikkortet aktivera elelr deaktivera klassisk vsync beroende på hur många fps som genereras. Bildskärmens uppdateringsfrekvens är statisk. Den påverkas inte.

G-Sync och Freesync däremot är aktiva tekniker som styr bilpanelens uppdateringsfrekvens mer direkt för att matcha grafikkortets utgående fps. Det vill säga att bildskärmens uppdateringsfrekvens är dynamiskt. Detta skall enligt förespråkare ge ett bättre flyt utan tearing, och utan den fps-broms som VSync annars skapar (Oavsett om det är vanlig VSync eller Adaptive VSync).

Men min ursprungliga fråga kvarstår:
Vad är den egentliga praktiska skillnaden mellan Freesync och G-Sync? Utöver implementeringskostnaderna (Licensavgifter med mera)
Jag förstår det som att AMD's Freesync är bättre då den licensen är fri för vem som helst att implementera. Till och med nVidia kan implementera Freesync om de bara vill. Fast det kan de ju inte göra. Vore ju löjligt. Det handlar ju om prestige och princip. Att implementera Freesync i nVidias hårdvara vore som att erkänna nederlag.

nVidias G-Sync däremot kräver dyrare hårdvara och är dessutom belagd med licensavgifter. (Och inga billiga sådana heller).
I övrigt så är de två teknikerna rätt och slätt likadana. De ger samma resultat.

...eller? Korrigera mig gärna. Helst med konkreta fakta.

Just nu vet vi inte vad som skiljer G-Sync från Freesync eftersom det ännu inte finns några skarpa skärmar för test (bör dyka upp vilken dag som helst nu). Det spekuleras om att G-Sync klarar större variationer i bildfrekvens och dessutom innehåller någon slags buffer och ger färre trasiga bildrutor/tearing, men det är som sagt bara spekulationer.

Visa signatur

» Kontakta oss » SweClockers på Facebook » SweClockers på Youtube » Blips of SweClockers (Spotify) » Pappa till Moderskeppet 1–3 » SweClockers chefredaktör 2007–2015 (Team Jonas, Emil, Jacob och Ytterberg)

Permalänk
99:e percentilen
Skrivet av Dallebull:

Jo fast nu har ju 120hz IPS @1440p funnits något år, under 3 lax får man ge dessutom, inbillar du att dom där sista 24hz:en gör nån praktisk skillnad tycker jag synd om dig.
Den största fördelen är att man kan köra 3d i 72Hz istället för 60.

Du menar Koreaskärmarna, förstår jag. Av ditt inlägg drar jag slutsatsen att du tror att de alltid klarar 120 Hz. Så är det inte. Min Catleap klarar bara 110 Hz, trots att jag lagt 400 kr på en supermegabra DVI-kabel (som hjälpte för vissa). Koreaskärmarna är bra, men du kan inte jämföra dem med Swift: Man får inga som helst garantier för uppdateringsfrekvens eller något annat och i praktiken inga rättigheter såsom reklamations-/ångerrätt eller garanti. Byggkvalitet är sämre och foten är fullständigt värdelös i jämförelse.

Jag har Swift och Catleap 2B och den förstnämnda är en betydligt bättre spelskärm, främst pga G‑Sync.

Visa signatur

Skrivet med hjälp av Better SweClockers