Nvidia G-Sync i bärbar dator utan särskild modul – förvillande likt AMD Freesync

Permalänk

Detta gör mig bara mer inställd på att fortsätta köpa produkter från AMD. De senaste nyheterna kring Nvidia har visat var det företaget står och hur lite de bryr sig om konsumenterna. Om de nu använder Freesync varför kan de inte bara säga det då? Antar att det svider för mycket att erkänna att AMD faktiskt verkar har en bättre lösning som dessutom är öppen för alla.

Visa signatur

Bärbar Speldator: AMD Ryzen 5 5600H I Nvidia RTX 3050 Ti
Xiaomi Poco X3 Pro I Nvidia Shield TV V2 I PS4 I

Permalänk
Master of Overkill
Skrivet av Swedish Berserk:

Detta gör mig bara mer inställd på att fortsätta köpa produkter från AMD. De senaste nyheterna kring Nvidia har visat var det företaget står och hur lite de bryr sig om konsumenterna. Om de nu använder Freesync varför kan de inte bara säga det då? Antar att det svider för mycket att erkänna att AMD faktiskt verkar har en bättre lösning som dessutom är öppen för alla.

Eller så läser du artikeln och förstår helheten vad dom säger.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk

De snackade om detta på The Wan Show.

G-sync ska ha fungerat riktigt dåligt på den bärbara datorn, den ska ha glitchat åt helvete. G-sync utan modul kommer ge samma funktion som freesync. G-sync ska dock ha hårdare validering. G-sync med modul är något som utvecklades innan Adaptive Sync började komma ut. Det ska även ge bättre funktionalitet än utan modul.

Jag har dock inte testat g-sync eller freesync så kan inte uttala mig om vilket som är bäst.
Bästa är att vänta så att de hinner utveckla tekniken bättre. First GEN Freesync tror jag kommer bli sådär med tanke på deras kvalite på scalers. Och JA jag använder nvidia. Let the hating begin.

Visa signatur

Stationär: 7800XT, R7 5700G, 32GB RAM 3800MHz CL14, 980 Pro 1TB + 950 Pro 256GB + 3x4TB HDD, Prime 1300W, Obsidian 750D, 240hz@1080p + 60hz@2160p , Logitech G Pro Wireless, Logitech G710+, HyperX Cloud II Wireless.
Server: Intel UHD 750, i5 11600K, 64GB RAM, 2x512GB M.2 SSD, 3x8TB HDD

Permalänk
Master of Overkill
Skrivet av Svennetony:

De snackade om detta på The Wan Show.

G-sync ska ha fungerat riktigt dåligt på den bärbara datorn, den ska ha glitchat åt helvete. G-sync utan modul kommer ge samma funktion som freesync. G-sync ska dock ha hårdare validering. G-sync med modul är något som utvecklades innan Adaptive Sync började komma ut. Det ska även ge bättre funktionalitet än utan modul.

Jag har dock inte testat g-sync eller freesync så kan inte uttala mig om vilket som är bäst.
Bästa är att vänta så att de hinner utveckla tekniken bättre. First GEN Freesync tror jag kommer bli sådär med tanke på deras kvalite på scalers. Och JA jag använder nvidia. Let the hating begin.

Exakt det jag menar.

Tror inte Nvidia lägger massa pengar utveckla G-sync för ingen anledning.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem

Skulle det här kunna funka på en Asus VG248QE tror ni? Denna skärm hade väl något tillval för G-Sync i begynnelsen om jag minns? Det pratas bara om laptopskärmar i denna artikel.

Edit: I videon verkar det som om det inte är så troligt. Synd hade varit kul att pröva.

EDIT
Permalänk
Inaktiv

Spännande, tänk om det visar sig att det inte är någon egentligen skillnad mellan mjukvara och hårdvara..
Länken ovan, som Claews postar säger följande:

"A simple example to show how the G-sync Module works : A ping pong communication between the NVIDIA GPU and the Monitor equipped with a G-sync Module, the Geforce Drivers will communicate to the monitor and ask, if the G-sync module is there, the Module answers back (Yes I’m here) and the G-sync options will be available."

Stämmer detta...ja....
Spännande utveckling, hoppas på fler tester, gärna hos Sweclockers?

Sitter själv med g-sync och 970 så är inte jätteimponerad av Nvidia just nu..om allt nu stämmer. Väntar på övriga tester.

Permalänk
Discokungen
Skrivet av Svennetony:

De snackade om detta på The Wan Show.

G-sync ska ha fungerat riktigt dåligt på den bärbara datorn, den ska ha glitchat åt helvete. G-sync utan modul kommer ge samma funktion som freesync. G-sync ska dock ha hårdare validering. G-sync med modul är något som utvecklades innan Adaptive Sync började komma ut. Det ska även ge bättre funktionalitet än utan modul.

Jag har dock inte testat g-sync eller freesync så kan inte uttala mig om vilket som är bäst.
Bästa är att vänta så att de hinner utveckla tekniken bättre. First GEN Freesync tror jag kommer bli sådär med tanke på deras kvalite på scalers. Och JA jag använder nvidia. Let the hating begin.

Skrivet av tvelander:

Exakt det jag menar.

Tror inte Nvidia lägger massa pengar utveckla G-sync för ingen anledning.

Rent principiellt har det dock ingen betydelse att "riktiga" G-sync fungerar bättre än det de har gjort här. Varför? Jo för att Nvidia har gnällt som fan över att Freesync inte kan ge värdig prestanda och whatnot när de själva gör samma sak för att spara in kostnader.

Det påminner lite om Battlestar Galactica och deras böcker. Fin parodi på "cutting corners".

Visa signatur

AMD 5800X3D - G.Skill Trident Z 3200 CL16 32GB - Asus B550 TUF - ASRock 7900 XTX Phantom - Intel 900p - CaseLabs S8 - LG 42C2 - Corsair AX1200i - Aquaero 6 - Vattenkyld

Permalänk
Inaktiv

Så g-sync modulen i skärmen kanske inte gör annat än att göra funktionen tillgänglig.

Permalänk
Avstängd
Skrivet av XHI:

Alltså… Visar det sig att kortet inte gör någon skillnad, är inte det samma sak som med GTX970? d.v.s. falsk marknadsföring?

Det går även att läsa hela artikeln och förstå det Tvelander påpekade ovan.

Visa signatur

The problem in society today: Smart phones, stupid people.

Permalänk
Medlem
Permalänk
Medlem

Nvidia målas mer och mer upp som branschockrare!

Visa signatur

r_wateralpha 0.3

Permalänk
Medlem
Skrivet av Rajat:

Det går även att läsa hela artikeln och förstå det Tvelander påpekade ovan.

Jo men det bygger ju på att nvidia talar sanning. De har inte en historia av att tala sanning i fall då sanningen inte gynnar nvidia. Jag tror att freesync kommer bli lika bra som g-sync även prestandamässigt då jag inte ser någon som helst funktion med en extra modul med tanke på vad teknikerna gör. Men vi får väl se... Man kan dock ha läst artikeln och ändå inte hålla med, allt beror på hur mycket man litar på de olika uttalanden som görs.

Skickades från m.sweclockers.com

Permalänk
Inaktiv

Dags att börja stödköpa mer AMD nu gott folk. Rakommenderar Sapphire R9 290X TRI-X.

Skickades från m.sweclockers.com

Permalänk
Medlem

Nvidia kan väl använda dem extra 500MBn på GTX970 som frame buffer

Permalänk
Medlem
Skrivet av tvelander:

"Det hela fungerar visserligen ännu inte helt fläckfritt och Nvidia klargör att det kommer att finnas upplevelsemässiga skillnader mellan G-Sync för bärbara och stationära datorer"

Roligt att alla läser, btw stog också att det fungerade inte 100 % på laptopen och att ibland fick den blackscreen kort och tappa ibland.

Och det sa Nvidia att de va det framebuffern i G-sync modulen i stationära skärmar löste så tror det finns anledning till varför stationära skärmar har det.

Ja, det är tråkigt att folk inte kan läsa.

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Skrivet av tvelander:

Eller så läser du artikeln och förstår helheten vad dom säger.

Det har jag gjort men du får gärna säga vad som står för du verkar tolka det annorlunda.

Jag vet inte med dig men om dom kan använda detta direkt genom mjukvara likt Freesync är det väldigt lustigt att G-Sync behöver hårdvara när det kommer till bildskärmar.

Skrivet av Orici:

Ja, det är tråkigt att folk inte kan läsa.

Ja visst är det. Saken är den att jag läser nyheterna sen att alla inte håller med om vad man skriver förstår jag för alla har olika åsikter om saken.

Visa signatur

Bärbar Speldator: AMD Ryzen 5 5600H I Nvidia RTX 3050 Ti
Xiaomi Poco X3 Pro I Nvidia Shield TV V2 I PS4 I

Permalänk
Skrivet av tvelander:

Exakt det jag menar.

Tror inte Nvidia lägger massa pengar utveckla G-sync för ingen anledning.

Det snackas även om en ny G-sync modul för stationära skärmar. Strömsnålare och mindre. G-Sync 2.0
Kommer bli nice när man kan köra någon form av Adaptive sync när de satt upp en bra certifiering för standarden. typ som 80+ för nätagg.

Drar iväg en gissning med magkänsla.
Tveksam till freesync då flera modeller ska fungera bra utan att vara certifierade. Känns som tillverkarna vill lägga till adaptive sync men vill inte betala certifierings till AMD. Verkar som AMD Freesyncs certifieringavgift är snarare en Marknadsföringsavgift och inte någon sorts kvalitets/validering av funktion.

Visa signatur

Stationär: 7800XT, R7 5700G, 32GB RAM 3800MHz CL14, 980 Pro 1TB + 950 Pro 256GB + 3x4TB HDD, Prime 1300W, Obsidian 750D, 240hz@1080p + 60hz@2160p , Logitech G Pro Wireless, Logitech G710+, HyperX Cloud II Wireless.
Server: Intel UHD 750, i5 11600K, 64GB RAM, 2x512GB M.2 SSD, 3x8TB HDD

Permalänk
Datavetare
Skrivet av tvelander:

Exakt det jag menar.

Tror inte Nvidia lägger massa pengar utveckla G-sync för ingen anledning.

Tror du inte det kan vara så enkelt som att Nvidia börja få lite kalla fötter?

De vet att problemet som G-sync löser kräver extra maskinvara för att fungera optimalt, men inser att mervärdet är för litet för den stora massan för att kunna motivera prispåslaget, framförallt om det finns saker som Freesync som i alla fall på pappret löser samma problem.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Adaptive Sync har väl funnits inbyggt i de senaste grafikkortsserierna (åtminstone sen 600-serien) från Nvidia? Går att ställa in i Nvidia Control Panel, och fungerar så vitt jag vet på alla sorters bildskärmar. Av denna anledning så har jag aldrig riktigt förstått mig på hypen kring Freesync.

Visa signatur

Intel i5 12600K | Asus TUF Gaming Z690-Plus D4 | Asus Geforce RTX 3060 Ti | 32 GB DDR4 | Fractal Design North | Corsair iCue Link H100i | Cooler Master V750 Gold i Multi

Permalänk
Medlem

Men, vad sysslar de med hos Nvidia? Först en period där allt går som smort och sedan plötsligt problem efter problem och avslöjanden?

Visa signatur

Nybörjare på Linux? Se hit! #15665841

Permalänk
Skäggig legend
Skrivet av Rajat:

Det går även att läsa hela artikeln och förstå det Tvelander påpekade ovan.

Kanske var fel ordval, men G-synk får en (i alla fall mig) att tänka - same same. Borde inte det heta ungefär: G-synk;m eller liknande - så att slutkunden förstår att det är något modifikation? likt GTX 970m vs GTX 970.

Visa signatur

Tråden om Skägg!
My cave...
Ryzen 5 3600@4,3Ghz - 16GB CL16 - RTX 3070 - Kingston Fury M.2 2TB
🎧Schiit Hel + DT-770 PRO - NAD C316 - B&W 685 - LG 65" OLED B6
 Watch Series 5 4G - Macbook Pro 13" 2015 - iPhone 11 PRO 256GB 

Permalänk
Master of Overkill
Skrivet av Yoshman:

Tror du inte det kan vara så enkelt som att Nvidia börja få lite kalla fötter?

De vet att problemet som G-sync löser kräver extra maskinvara för att fungera optimalt, men inser att mervärdet är för litet för den stora massan för att kunna motivera prispåslaget, framförallt om det finns saker som Freesync som i alla fall på pappret löser samma problem.

Nä jag tror inte det.

Jag vill så klart att G-sync är exakt samma som free-sync, för alla sparar pengar.

Men känns jävligt konstigt för finns inga RIKTIGA free-sync test vs g-sync ännu, jag tycker fortfarande det är konstigt att Nvidia utvecklar hel krets om dom kunde redan gjort som AMD.

Men vad vet jag, så klart dom kanske bara vill tjäna pengar.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Hedersmedlem
Skrivet av tvelander:

Exakt det jag menar.

Tror inte Nvidia lägger massa pengar utveckla G-sync för ingen anledning.

Näe, Nvidia lägger nog inte ut pengar på ingenting. Och jag håller med dig om att slutsatser dras lite väl fort här.
Misstänker att den egentliga orsaken till missnöjet snarare ligger i att Nvidia inte vill erbjuda alternativ till en öppen standard när konkurrentens lösning använder en öppen standard. Känslan av onödig inlåsning kommer väl krypande. Inte att Gsync bör vara öppet utan att Nvidia inte vill erbjuda möjligheten att använda Adaptive sync. Sedan implementerar de något som liknar freesync ändå fast återigen på en plattform som är stängd. Det kan jag förstå att folk blir irriterade av.
Ja, vi får se var det hela landar. För tidigt att uttala sig om vilka tekniker som är bra/dåliga innan de kan testas och jämföras ordentligt.

Skrivet av Swedish Berserk:

Det har jag gjort men du får gärna säga vad som står för du verkar tolka det annorlunda.

Jag vet inte med dig men om dom kan använda detta direkt genom mjukvara likt Freesync är det väldigt lustigt att G-Sync behöver hårdvara när det kommer till bildskärmar.

Om det är någon här som inte kan läsa och drar egna slutsatser så är det du.

Vi vet inte så mycket ännu, men det är väl möjligt att Gsyncmodulen gör att det hela fungerar bättre än om man bygger en lösning utan denna men att båda lösningarna fungerar. Det skulle kunna motivera användning av denna modul ändå.
Lite tidigt att skriva av allt som "bluff och båg ännu".

Visa signatur

🎮 → Node 304 • Ryzen 5 2600 + Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Skrivet av tvelander:

Exakt det jag menar.

Tror inte Nvidia lägger massa pengar utveckla G-sync för ingen anledning.

De lägger även pengar på att utveckla mjukvaru G-sync. Frågan är om desktop användare kommer få ta del av detta.

Min gissning är nej, men enligt mig så borde Nvidia möjliggöra detta eftersom Amd kör på det. Sen får de väl sätta ett prispremium på sina "äkta g-sync" monitorer.

Tror faktiskt inte att de skulle tappa köpare på det.

Visa signatur

5800X, Asus dual 4070, 32GB, Fractal newton R2 650 watt, Asus Prime B350-plus , Phanteks 400s vit, Asus TUF VG27AQ1A, Dell U2515H.
https://www.flickr.com/photos/albinivik/

Permalänk
Skrivet av Flamso:

Rent principiellt har det dock ingen betydelse att "riktiga" G-sync fungerar bättre än det de har gjort här. Varför? Jo för att Nvidia har gnällt som fan över att Freesync inte kan ge värdig prestanda och whatnot när de själva gör samma sak för att spara in kostnader.

Det påminner lite om Battlestar Galactica och deras böcker. Fin parodi på "cutting corners".
https://c1.staticflickr.com/1/82/231311748_9e4e9ba04f.jpg

Nvidia har ännu inte gjort G-sync via Adaptive sync "Oficiellt". Om de nu skulle välja att ha en version av g-sync via adaptive sync så kommer de nog se till att det funkar. Tror dock Nvidia kommer strunta i den nuvarande Adaptive Sync standarden då den inte har någon speciell kvalitetskontroll. Nvidia kommer att vilja tjäna pengar och de kan kvalitetskontrolera G-sync modulerna själva.

Visa signatur

Stationär: 7800XT, R7 5700G, 32GB RAM 3800MHz CL14, 980 Pro 1TB + 950 Pro 256GB + 3x4TB HDD, Prime 1300W, Obsidian 750D, 240hz@1080p + 60hz@2160p , Logitech G Pro Wireless, Logitech G710+, HyperX Cloud II Wireless.
Server: Intel UHD 750, i5 11600K, 64GB RAM, 2x512GB M.2 SSD, 3x8TB HDD

Permalänk
Discokungen
Skrivet av Datanisse:

Nvidia målas mer och mer upp som branschockrare!

Du menar precis som innan? Inget har förändrats. Möjligen att folk ser Nvidia lite mer tydligt för vad de är. Ett starkt företag som vill tjäna så mycket pengar som möjligt. Nu börjar de dock låta saker bli lite väl tydliga.

Skrivet av Yoshman:

Tror du inte det kan vara så enkelt som att Nvidia börja få lite kalla fötter?

De vet att problemet som G-sync löser kräver extra maskinvara för att fungera optimalt, men inser att mervärdet är för litet för den stora massan för att kunna motivera prispåslaget, framförallt om det finns saker som Freesync som i alla fall på pappret löser samma problem.

Jo, absolut. Det är det största problemet. AMD kontrade lite väl hårt när de fick in det lilla fröet att samma sak kunde göras gratis, utan Nvidias överkomplicerade och dyra extrakort. Som dessutom inte är öppet för andra tillverkare.

Visa signatur

AMD 5800X3D - G.Skill Trident Z 3200 CL16 32GB - Asus B550 TUF - ASRock 7900 XTX Phantom - Intel 900p - CaseLabs S8 - LG 42C2 - Corsair AX1200i - Aquaero 6 - Vattenkyld

Permalänk
Medlem
Skrivet av anon200632:

Så g-sync modulen i skärmen kanske inte gör annat än att göra funktionen tillgänglig.

Det handlar väl snarar om att Nvidia kallar det G-sync när det egentligen är i princip Freesync i bärbara. Nvidia sätter G-sync stämpeln på dem, fast det inte är riktigt samma sak. Lite som att glömma att tala om att 0,5GB minne är väldigt långsamt på ett grafikkort.

Permalänk
Medlem

nVidia behöver inte oroa sig. När det finns folk som byter in sina 970 och köper 980 för det som de trodde att 970 skulle räcka till.

Mot alla odds så kommer nVidia klara sig tack vare sina dumlojala kunder.

Permalänk
Medlem
Skrivet av anon4992:

Spännande, tänk om det visar sig att det inte är någon egentligen skillnad mellan mjukvara och hårdvara..
Länken ovan, som Claews postar säger följande:

"A simple example to show how the G-sync Module works : A ping pong communication between the NVIDIA GPU and the Monitor equipped with a G-sync Module, the Geforce Drivers will communicate to the monitor and ask, if the G-sync module is there, the Module answers back (Yes I’m here) and the G-sync options will be available."

Stämmer detta...ja....
Spännande utveckling, hoppas på fler tester, gärna hos Sweclockers?

Sitter själv med g-sync och 970 så är inte jätteimponerad av Nvidia just nu..om allt nu stämmer. Väntar på övriga tester.

jadu, det är ju inte första gången vi fått den förändringen, innan krävdes det ju fysiska physx kort och nu har vi den funktionaliteten inbyggt i alla nvidia kretsar så om utvecklingen går mer mot mjukvarubaserat är det det ju bra

Visa signatur

R7 5800X3D / RX 6950 XT / 32GB Ram / 1TB SSD / X570 Bräda / 850w Nätagg.
32 Tums Skärm 1440p 144hz Curved VA panel.

Permalänk
Medlem
Skrivet av Gender Bender:

Adaptive Sync har väl funnits inbyggt i de senaste grafikkortsserierna (åtminstone sen 600-serien) från Nvidia? Går att ställa in i Nvidia Control Panel, och fungerar så vitt jag vet på alla sorters bildskärmar. Av denna anledning så har jag aldrig riktigt förstått mig på hypen kring Freesync.

Fast det är inte alls samma sak. Adaptive sync synkar skärmens uppdateringsfrekvens med grafikkortet. Adaptive v-sync som nvidia la till i 600-serien stänger bara av v-sync när datorn inte klarar av att leverera lika många fps som skärmens uppdateringsfrekvens.

Sen till alla som säger att freesync bara är mjukvara så är det fel, det krävs nya scalers eller en speciell DPe display för att det ska fungera. Jag tror att nvidia gjorde sin g-sync modul bara för att vara först och att hindra att AMD grafikkort fungerar på samma skärmar. AMD gick istället den 'långa' vägen och fick in det i DP standarden men jag tycker att det var en bättre väg att gå även om det har tagit längre tid.

Skickades från m.sweclockers.com