Nvidia G-Sync i bärbar dator utan särskild modul – förvillande likt AMD Freesync

Permalänk
Skrivet av anon4992:

Så kan det ju vara, g-synk kanske släpptes för sent eller i samma veva som det ändå finns halvbra mjukvarulösningar. Men tåget var redan igång så dom körde på, då dom redan tryckt in pengar. Spekulationer från mig såklart.

Får hoppas en en mildare diskussion än den om 970. Vi "folk" tror en massa och drar slutsatser innan vi vet. Sitt still i båten eller nåt sånt

Edit: finns lite om och men i artikeln också, som stämmer överens med det du säger:

"This obviously leads us to the discussion of the need for a dedicated G-Sync module on current monitors.[B] In order to get shipping variable refresh monitors in the market last year, NVIDIA had no choice but to create a module to replace the scalar in modern displays.[/B] No monitors existed then with embedded DisplayPort interfaces and the standard had not been created for Adaptive Sync. But as the release of AMD FreeSync displays nears, we have to ask: will a dedicated module be required for G-Sync on future products? Interestingly, NVIDIA says that the answer hasn't been 100% decided yet - the future could include this same module, a new module or perhaps even no module at all. There are features and technologies in the G-Sync module that haven't been revealed, at least according to NVIDIA, and with that line of thinking I don't see a time when NVIDIA relieves the desktop market of that requirement in the near term."

2.50 in i klippet säger dom även "almost identical to g-sync monitors today"
Så kanske ingen "fara" egentligen, bara att g-sync är utdaterat redan kort efter release? Hade drivrutinen inte läckt hade dom själv kunnat sprida nyheten om att modulerna inte behövs längre. Om nu så är fallet.

Känns som en nyhet som kanske får för stora proportioner.

Snarare lite lustigt vad dom själva påstår http://www.sweclockers.com/nyhet/19941-nvidia-inga-planer-pa-... Men skulle vara kul att veta om dom har en annan teknik att utnyttja scalars på är i alla fall intresant att veta vilken teknik dom använder, när dom inte vill använda Adaptive-Sync (fast misstänker dom har vänt åsikt, fast i bakgrunden). Möjligt är att det är ett spel för gallerierna, helt enkelt för att g-sync inte ska hamna bakom ridån.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem

Gällande G-Sync så kan jag tycka att det är rätt löjligt att ha några åsikter om hur det står sig mot alternativen i dagsläget, då det inte finns något annat på marknaden. Det ska bli spännande att se hur FreeSync står sig när det väl kommer ut på marknaden, skulle det visa sig ligga på samma nivå som G-Sync har jag väldigt svårt att se hur Nvidia ska kunna hålla kvar i G-sync men vi får förhoppningsvis svar på det snart

tagit bort citat
Permalänk
Medlem

Är väl ingen direkt överaskning att om du kan använda en "teknik" som försäljningsknep som genererar mer inkomster, så kommer du göra det. Frågan är om det kommer vara nån märkbar skillnad mellan G-sync och Freesync i head-2-head jämförelser. Får vi väl se inom en snar framtid...

Visa signatur

Asus Z87-A| 4770k@4.5GHz@1.19v|Gtx680@+100MHz offset - Accelero Hybrid| 2x4GB Corsair 1600MHz DDR3| Samsung 830 series SSD 256GB| Asus Xonar essence STX| Corsair HX620w| Define XL| giefscience.com | Jag streamar på Twitch

Permalänk
Hedersmedlem

*Tråd rensad*

Tagit bort flamebait/fanboy-förklaringar enligt §1. Vänligen håll diskussionen på en saklig nivå.

Citat:

§ 1.1 Var trevlig och respektera andra.
§ 1.5 Att uttala sig provocerande endast för att reta upp andra (så kallat trollande) är inte tillåtet.
§ 1.6 Meningslösa inlägg som inte för diskussionen framåt är förbjudna. Detta omfattar inlägg som utan vidare motivering uttrycker medhåll eller missnöje. Andra exempel är länkar utan beskrivning eller sammanhang samt inlägg som enbart innehåller citat. Memebilder och andra roliga bilder för nästan aldrig diskussionen framåt.

/moderator

Visa signatur

Danskjävel så krattar som en skrivare...

Permalänk

Äsch, nVidia var bra på Geforce 3 och 8800GTS/GTX tiden. Nuförtiden är dom bara pengar hungriga snyltare som inte tänker på sina kunder.. Först GTX 970 fiaskot och nu detta bs ?
Hoppas att AMD kör sitt varv nu utan att likna sin konkurrent.

Permalänk

Tror det här handlar om två saker:

1) Nvidia är ett affärsdrivande företag. Deras jobb är att tjäna pengar åt aktieägarna. Kan de göra det genom att slira på tungan när man ger konsumenter produktinformation, så varför inte? Jag tror inte man ska ha för uppskruvade förväntningar på att de alltid är ärliga.

1a) Har de lagt en ohemulig massa pengar på att utveckla G-sync så lär de se till att hålla fast vid det konceptet. Oavsett hur mycket folk kritiserar, och även om det faktiskt skulle finnas något som är bättre (freesync?). Allt annat vore att kasta pengar i sjön.

2) Människor är ekonomiska varelser. De betalar inte ett högre pris för något som det kan få billigare någon annanstans. Av den anledningen är G-sync, med matematisk säkerhet, dömt att misslyckas som koncept när freesync kommer ut, om bara freesync fungerar lika bra. Fram tills dess att nederlaget är ett faktum kommer dock nVidia att fortsätta försöka krama så mycket pengar de kan ur konceptet de har lagt en massa pengar på att utveckla, oavsett vad folk säger. Allt annat vore dåligt skötta affärer.

Pengar, pengar, pengar. Det styr denna branschen likaväl som alla andra branscher. Vad "communityt" tycker skiter bolagens aktieägare blankt i, bara de får sin aktieutdelning varje år. Och det lär för övrigt gälla både nVidia och AMD.

... så ha inga överdrivna förhoppningar när det gäller sanningshalten i något av deras uttalanden. ...och överskatta inte vilket värde de tycker att "communityts" åsikter har. De skiter blankt i kundernas åsikter så länge de får deras pengar, precis som alla andra företag.

Detta skriver jag för övrigt som innehavare av både GTX780Ti och G-sync-skärm: jag är inte någon AMD-fanboy.

Visa signatur

CPU: I7 4790K@4,8 Ghz | MB: ASUS Maximus ranger VII |RAM: Adata 16GB 1600 Mhz |GPU: 2X ASUS GTX 980Ti STRIX DirectCUIII SLI |PSU: Corsair AX1200i | Kylare: Corsair H100i | SSD: Samsung SSD 840 EVO 256GB | Tangentbord: Corsair K95 RGB | Razer Orbweaver keypad | Mus: Logitech MX Master | Hörlurar: Sony MDR-1RBT | Monitor: Acer XB280HK G-sync 3840x2160, Acer Predator X34 3440x1440
Mitt galleri: "The Pixel collider V1.5"

Permalänk
Skrivet av Finurliig:

Tror det här handlar om två saker:

1) Nvidia är ett affärsdrivande företag. Deras jobb är att tjäna pengar åt aktieägarna. Kan de göra det genom att slira på tungan när man ger konsumenter produktinformation, så varför inte? Jag tror inte man ska ha för uppskruvade förväntningar på att de alltid är ärliga.

1a) Har de lagt en ohemulig massa pengar på att utveckla G-sync så lär de se till att hålla fast vid det konceptet. Oavsett hur mycket folk kritiserar, och även om det faktiskt skulle finnas något som är bättre (freesync?). Allt annat vore att kasta pengar i sjön.

2) Människor är ekonomiska varelser. De betalar inte ett högre pris för något som det kan få billigare någon annanstans. Av den anledningen är G-sync, med matematisk säkerhet, dömt att misslyckas som koncept när freesync kommer ut, om bara freesync fungerar lika bra. Fram tills dess att nederlaget är ett faktum kommer dock nVidia att fortsätta försöka krama så mycket pengar de kan ur konceptet de har lagt en massa pengar på att utveckla, oavsett vad folk säger. Allt annat vore dåligt skötta affärer.

Pengar, pengar, pengar. Det styr denna branschen likaväl som alla andra branscher. Vad "communityt" tycker skiter bolagens aktieägare blankt i, bara de får sin aktieutdelning varje år. Och det lär för övrigt gälla både nVidia och AMD.

... så ha inga överdrivna förhoppningar när det gäller sanningshalten i något av deras uttalanden. ...och överskatta inte vilket värde de tycker att "communityts" åsikter har. De skiter blankt i kundernas åsikter så länge de får deras pengar, precis som alla andra företag.

Detta skriver jag för övrigt som innehavare av både GTX780Ti och G-sync-skärm: jag är inte någon AMD-fanboy.

Precis, free-sync behöver inte vara lika bra som g-sync för att slå det. Som det ser ut nu så verkar första freesync skärmen ligga 1000kr under en liknande g-sync skärm och som som du säger väljer folk det som är billigast. Även om det bara skiljer 1000kr (kan möjligen skilja mer när skärmar släppts). G-sync skärmar går ju bara prissänkas till viss gräns, sen får dom börja tumma på andra saker för att behålla g-sync.

Får hoppas inte detta blir uppdelat i två sidor, då kommer det i stället bli svårt att hitta vettiga och bra skärmar man inte behöver sälja hus och hem plus bilen

Men gissar starkt på att det kommer vara lite inkörningsproblem med free-sync, men dom betar testar det säker feniciskt. Få hoppas det funkar lika bra på 2xx serien (dom kort som har stöd) och 3xxx serien,sen så man inte behöver vänta 4xx innan det fungerar bra. För då lär det troligen bli segmenterat, se bara på det nerlagda 3D skärmarna (vist ingen vidare satsning, men problemet var att det inte fanns några bra skärmar). Nvidia har ännu kvar skräpet i drivrutinerna tyvärr.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av tvelander:

Exakt det jag menar.

Tror inte Nvidia lägger massa pengar utveckla G-sync för ingen anledning.

Skrivet av SysGhost:

Men min ursprungliga fråga kvarstår:
Vad är den egentliga praktiska skillnaden mellan Freesync och G-Sync? Utöver implementeringskostnaderna (Licensavgifter med mera)
Jag förstår det som att AMD's Freesync är bättre då den licensen är fri för vem som helst att implementera. Till och med nVidia kan implementera Freesync om de bara vill. Fast det kan de ju inte göra. Vore ju löjligt. Det handlar ju om prestige och princip. Att implementera Freesync i nVidias hårdvara vore som att erkänna nederlag.

nVidias G-Sync däremot kräver dyrare hårdvara och är dessutom belagd med licensavgifter. (Och inga billiga sådana heller).
I övrigt så är de två teknikerna rätt och slätt likadana. De ger samma resultat.

...eller? Korrigera mig gärna. Helst med konkreta fakta.

När freesync först presenterades var det uppgifter som sade att nVidia behövde Gsync-modulen då deras gpuer inte klarar variabel v-blank. AMD å andra sidan har haft stöd för variabel v-blank sedan HD5k, även om det knappt utnyttjats av laptop-tillverkarna.

För nVidia var snabbaste lösningen att utveckla en hårdvara som monteras i skärmarna. Alternativet att göra nödvändiga förändringar i hårdvaran skulle ta några år. Jämför med hur många år det tog för nVidia att ge stöd för mer än 2 skärmar efter att AMD presenterat HD5k med stöd för 6 skärmar.

AMD med stöd i hårdvaran behövde bara övertala skärmtillverkarna att införa en teknik som redan fanns till laptop. Syftet på en laptop var strömbesparing vid statisk bild. Till gaming är ju inte syftet strömbesparing, så lite tweakande av funktionen behövdes.

Visa signatur

Vägra fx 3of4 Pi 1M 1.84 s Memory remapping
Minnen har ingen egen hastighet. Märkningen anger bara vilken hastighet minnena uppges klara

Permalänk
Medlem
Skrivet av Finurliig:

Tror det här handlar om två saker:

1) Nvidia är ett affärsdrivande företag. Deras jobb är att tjäna pengar åt aktieägarna. Kan de göra det genom att slira på tungan när man ger konsumenter produktinformation, så varför inte? Jag tror inte man ska ha för uppskruvade förväntningar på att de alltid är ärliga.

1a) Har de lagt en ohemulig massa pengar på att utveckla G-sync så lär de se till att hålla fast vid det konceptet. Oavsett hur mycket folk kritiserar, och även om det faktiskt skulle finnas något som är bättre (freesync?). Allt annat vore att kasta pengar i sjön.

2) Människor är ekonomiska varelser. De betalar inte ett högre pris för något som det kan få billigare någon annanstans. Av den anledningen är G-sync, med matematisk säkerhet, dömt att misslyckas som koncept när freesync kommer ut, om bara freesync fungerar lika bra. Fram tills dess att nederlaget är ett faktum kommer dock nVidia att fortsätta försöka krama så mycket pengar de kan ur konceptet de har lagt en massa pengar på att utveckla, oavsett vad folk säger. Allt annat vore dåligt skötta affärer.

Pengar, pengar, pengar. Det styr denna branschen likaväl som alla andra branscher. Vad "communityt" tycker skiter bolagens aktieägare blankt i, bara de får sin aktieutdelning varje år. Och det lär för övrigt gälla både nVidia och AMD.

... så ha inga överdrivna förhoppningar när det gäller sanningshalten i något av deras uttalanden. ...och överskatta inte vilket värde de tycker att "communityts" åsikter har. De skiter blankt i kundernas åsikter så länge de får deras pengar, precis som alla andra företag.

Detta skriver jag för övrigt som innehavare av både GTX780Ti och G-sync-skärm: jag är inte någon AMD-fanboy.

Det var det mest dystra jag läst på länge. Bara för att man är ett företag som efterstävar vinst behöver man inte låta det gå ut över sina kunder.

Permalänk
Medlem

"Det hela fungerar visserligen ännu inte helt fläckfritt och Nvidia klargör att det kommer att finnas upplevelsemässiga skillnader mellan G-Sync för bärbara och stationära datorer"

Låter som att detta bara kommer att ge G-Sync dåligt rykte då "användare" inte vet vad skillnaden är. Detta utan att ens gå in på huruvida Nvidia kopierar AMD, eller varför dom inte släpper detta till stationärt.

Permalänk
Avstängd

Dålig stil. Det är bara att öppna upp för en standard nu och sluta vara så jävla giriga, Nvidia.

Permalänk
Medlem
Skrivet av Finurliig:

Tror det här handlar om två saker:

1) Nvidia är ett affärsdrivande företag. Deras jobb är att tjäna pengar åt aktieägarna. Kan de göra det genom att slira på tungan när man ger konsumenter produktinformation, så varför inte? Jag tror inte man ska ha för uppskruvade förväntningar på att de alltid är ärliga.

1a) Har de lagt en ohemulig massa pengar på att utveckla G-sync så lär de se till att hålla fast vid det konceptet. Oavsett hur mycket folk kritiserar, och även om det faktiskt skulle finnas något som är bättre (freesync?). Allt annat vore att kasta pengar i sjön.

2) Människor är ekonomiska varelser. De betalar inte ett högre pris för något som det kan få billigare någon annanstans. Av den anledningen är G-sync, med matematisk säkerhet, dömt att misslyckas som koncept när freesync kommer ut, om bara freesync fungerar lika bra. Fram tills dess att nederlaget är ett faktum kommer dock nVidia att fortsätta försöka krama så mycket pengar de kan ur konceptet de har lagt en massa pengar på att utveckla, oavsett vad folk säger. Allt annat vore dåligt skötta affärer.

Pengar, pengar, pengar. Det styr denna branschen likaväl som alla andra branscher. Vad "communityt" tycker skiter bolagens aktieägare blankt i, bara de får sin aktieutdelning varje år. Och det lär för övrigt gälla både nVidia och AMD.

... så ha inga överdrivna förhoppningar när det gäller sanningshalten i något av deras uttalanden. ...och överskatta inte vilket värde de tycker att "communityts" åsikter har. De skiter blankt i kundernas åsikter så länge de får deras pengar, precis som alla andra företag.

Detta skriver jag för övrigt som innehavare av både GTX780Ti och G-sync-skärm: jag är inte någon AMD-fanboy.

Det är därför jag har så stark tro på att konsumenter måste få göra så mycket oväsen de kan på alla sätt de kan och speciellt på princip när mygel som gtx 970 problemet dök upp, problemet är väl att långt ifrån alla konsumenter förstår att alla konsumenter tjänar på att vi reagerar, det skadar oss i längden att svepande acceptera sådant här för som du säger, pengar, pengar och mer pengar,

ett företags våtaste dröm måste ju vara om de kan komma undan med sånt här och folk inte "bryr" sig, faktumet att förvånansvärt många tyckte detta inte var en så stor deal eller tyckte de som gjorde det till det inte var berättigade till det, visar att de lyckats komma en bit på vägen:/

Permalänk
Medlem

Nvidia har väl myglat en hel del genom åren. Så speciellt förvånande att det återkommer gång på gång känns det inte och dom kommer nog att fortsätta med det också. Jag gillar däremot Nvidia och AMD för att deras kamp på marknaden är ganska jämn ur prestanda, pris och effektivitet. Både Nvidia och AMD kan lotta om att vinna med generationer. Jag hoppas kampen kommer fortsätta vara jämn i framtiden.

Visa signatur

Intel Pentium 2 MMX 233 @263 MHz, 192 mb, Nvidia TNT 16mb, 40gb hdd

Permalänk
Medlem

Snälla Sweclockers admin, har ni börjat bli kännsliga?
Riva bort min kommentar "BUSTED" över avslöjandet att Nvidia inte behöver specifik HW i bärbart.
"BUSTED" är det anstötande, när man säger det om Nvidia... Lite fanboy över det...

Duble BUSTED...

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
Medlem

Till alla som säger att de hoppas på "mjukvaruvarianten" av G-sync så har ni faktiskt inte förstått något!
Drivrutinerna var till just den displayen som finns på laptopen vilket hjälpte till att styra frekvensen på den mha G-sync.
Detta kan inte enkelt göras med vanliga PC displayer och om jag inte minns fel så var det något liknande för något år sen när AMD försökte vissa hur bra freesync var men de visade ju det på laptopar där det var enkelt fixat.

För att G-sync ska fungera på vanliga desktops så måste de på något sätt styra uppdateringsfrekvensen på skärmen vilket ska tydligen gå med hjälp av det som redan finns i DP eller som nu kommer att finnas i Adaptive-sync. Om det är lika bra jämfört G-sync vet jag inte.

Jag kommer att vänta lite till men kan inte vänta så mycket till. Jag har en skärm på 3440x1440 och det går inte att maxa helt med ett GTX 670. Jag vill se om freesync är lika bra och om AMD släpper något bättre än GTX 980 men kan ju inte vänta evigheter :/

Permalänk
Medlem
Skrivet av Bengt-Arne:

Snälla Sweclockers admin, har ni börjat bli kännsliga?
Riva bort min kommentar "BUSTED" över avslöjandet att Nvidia inte behöver specifik HW i bärbart.
"BUSTED" är det anstötande, när man säger det om Nvidia... Lite fanboy över det...

Duble BUSTED...

Nej, det är bara så att ditt inlägg, tillsammans med 70% av alla andra inlägg under denna artikel bara är korkade skräpinlägg som påminner om att snittåldern för medlemmar här ligger kring 14 år.
Hade varit kul med lite mer intelligenta och tekniska inlägg.
Ni måste ju förstå att det inte är något jävla garageföretag, det sitter några hundra ingenjörer av olika slag och jobbar med det här, det finns nog en väldigt bra anledning till att det är som det är och det är nog INTE för att försöka lura folk.
Dom har sin G-sync-lösning som dom tycker är överlägsen men har i bärbara datorer fått göra någon nedbantad variant som säkert funkar likadant som freesync, men av marknadstekniska skäl kan man inte bara köra på freesync istället utan man säger att man har sin egna lösning. Det är nog även för att dom vill hålla koll på bitarna själva, är det något dom vill ändra på så kan dom göra det utan en massa krångel med andra företag och organisationer.
Det är VÄLDIGT trångsynt här på sweclockers så fort det gäller Nvidia vs AMD och det är rätt så ledsamt.

Permalänk

Ok, kan väl köpa att G-sync behöver en uppdaterad scaler i skärmen (det behöver Adaptive/Freesync också). Men vad hindrar dem att bygga in framebuffern på kortet och således göra en lösning som är kompatibel med Adaptive sync samt ändå har fördelar gentemot AMD:s lösning?

I mina ögon vill Nvidia låsa in konsumenterna till sina lösningar - köper du en G-sync skärm så kommer du antagligen att hålla dig till Nvidia kort även om pris/prestanda inte är det bästa för tillfället. Skärmar har man oftast längre än grafikkort.

Tekniken är ny och det finns säkert tekniska orsaker till varför Nvidia har valt att göra på detta sättet, men de kunde gott och väl försöka röra sig mot öppna standarder lite mer. Se bara på vad som hände med PhysX eller andra företagsspecifika grafiklösningar - inte värt att implementera i stor utsträckning om inte alla kan använda dem.

Permalänk
Medlem
Skrivet av FL3JM:

Nej, det är bara så att ditt inlägg, tillsammans med 70% av alla andra inlägg under denna artikel bara är korkade skräpinlägg som påminner om att snittåldern för medlemmar här ligger kring 14 år.
Hade varit kul med lite mer intelligenta och tekniska inlägg.
Ni måste ju förstå att det inte är något jävla garageföretag, det sitter några hundra ingenjörer av olika slag och jobbar med det här, det finns nog en väldigt bra anledning till att det är som det är och det är nog INTE för att försöka lura folk.
Dom har sin G-sync-lösning som dom tycker är överlägsen men har i bärbara datorer fått göra någon nedbantad variant som säkert funkar likadant som freesync, men av marknadstekniska skäl kan man inte bara köra på freesync istället utan man säger att man har sin egna lösning. Det är nog även för att dom vill hålla koll på bitarna själva, är det något dom vill ändra på så kan dom göra det utan en massa krångel med andra företag och organisationer.
Det är VÄLDIGT trångsynt här på sweclockers så fort det gäller Nvidia vs AMD och det är rätt så ledsamt.

Om du nu tycker att snittåldern är på den nivån så får det ju stå för dig! Men nog att du är här
Däremot så har jag alltid ansett att låst teknik alltid hämmar utveckling och ger merkostnad för slutkund, om det är något som du tycker om att betala extra för så står även det för dig
Öppna licensfria standarder gör det ju möjligt för alla att hoppa på tåget, att stänga och tjurigt säga vårt är bättre är ju mer sandlåda från dom företag som bedriver liknande.
Man säger ju då nej till att medverka till en troligt positiv standard och utveckling, enbart för sitt egna egos skull.
Frågan är nog vem/vad som är trångsynt och lite fanboy

Därav mitt ursprungliga "BUSTED"...

Är du admin?

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
Medlem
Skrivet av Bengt-Arne:

Jag är ganska säker på att ditt inlägg blev borttaget pga regel §1.6 (Ganska många fler inlägg som borde bli det)

Visa signatur

CPU : 12900KS GPU : 3090 Strix OC RAM : G.Skill 32GB 6600MHz 34-40-40-105SSD : 2st SN850 1TB Bildskärm 1: Strix PG279Q 1440p@165Hz G-SYNC Bildskärm 2: Asus VG27AQ 27" 1440p@165Hz Bildskärm 3: Asus VG27AQ 27" 1440p@165Hz Vattenkylning CPU,GPU och RAM, 3*360 rad

Permalänk
Medlem
Skrivet av Boozfob:

Jag är ganska säker på att ditt inlägg blev borttaget pga regel §1.6 (Ganska många fler inlägg som borde bli det)

Troligen! Men då är det många inlägg som ska bort och inte bara i denna tråden, precis som du säger

Menade med busted att dom till viss del fällde sig själva med låst hårdvara, uppenbarligen så behövs den ju inte. Att det sen är ostabilt är ju inget ovanligt när det är beta drivrutiner. Ser nog själv att både Nvidia's och AMD's lösning mer är en hype som ja löser vissa problem, menar här att det är en enkel teknik som i princip redan existerar i monitorerna.
En del löser det med ny mjukvara om deras hårdvara är bra nog, det jag misstänker att AMD gjort är att dom lagt till lite mer variabel timimng till framebufferten. Något Nvidia valt att lägga separat enbart av ett vinstintresse, problemet för dom blir ju då att dom själva stänger sig ute från att påverka den slutgilltiga standarden. I princip är det inte mer än omvänd overscan på TV sidan, inget superkliv i gämförelse med andra saker som USB eller 802.11 WiFi.
Påminner mig lite om RT-Datorn (Radio och Television) och det sätt den hanterade TV'n på den tiden, enkelt och gammalt men gör säkert nytta!
Tror nog att vi ser detta på monitorer i lägre prisklasser om ett par år...

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
Skrivet av FL3JM:

Nej, det är bara så att ditt inlägg, tillsammans med 70% av alla andra inlägg under denna artikel bara är korkade skräpinlägg som påminner om att snittåldern för medlemmar här ligger kring 14 år.
Hade varit kul med lite mer intelligenta och tekniska inlägg.
Ni måste ju förstå att det inte är något jävla garageföretag, det sitter några hundra ingenjörer av olika slag och jobbar med det här, det finns nog en väldigt bra anledning till att det är som det är och det är nog INTE för att försöka lura folk.
Dom har sin G-sync-lösning som dom tycker är överlägsen men har i bärbara datorer fått göra någon nedbantad variant som säkert funkar likadant som freesync, men av marknadstekniska skäl kan man inte bara köra på freesync istället utan man säger att man har sin egna lösning. Det är nog även för att dom vill hålla koll på bitarna själva, är det något dom vill ändra på så kan dom göra det utan en massa krångel med andra företag och organisationer.
Det är VÄLDIGT trångsynt här på sweclockers så fort det gäller Nvidia vs AMD och det är rätt så ledsamt.

Varför låsa sig till en tillverkare? Nvidia har låst inne flera tekniker och det har bara slutat med att dom används i några få spel.

Vist enda fördelen är att dom kan göra drivers hur dom vill, till kostnad av att det i slutändan få konsumenter kan och används sällan i praktiken.

Bättre om det är öppet så flera kan jobba på att få det bra och oftast blir slutresultatet bättre om flera delar på samma standard.

Ska Intel göra egen Adaptive-Sync också? då ska man alltså klämma in tre olika tekniker på samma skärm, blir väldigt billiga skärmar alltså

Hoppas du förstår poängen. Det är lite som kriget mellan Hd-redy och blu-ray, fast ännu sämre för konsumenter denna gången. Antinge får denna satsning läggas ner eller bar fåtal halvbra skärmar på marknaden med stöd för g-sync och freesync. Bara se på 3D skärmar (vist var inget vidare), men visar poängen att man bör samsas under samma teknik annars försvinner den.

Skrivet av Bengt-Arne:

Troligen! Men då är det många inlägg som ska bort och inte bara i denna tråden, precis som du säger

Menade med busted att dom till viss del fällde sig själva med låst hårdvara, uppenbarligen så behövs den ju inte. Att det sen är ostabilt är ju inget ovanligt när det är beta drivrutiner. Ser nog själv att både Nvidia's och AMD's lösning mer är en hype som ja löser vissa problem, menar här att det är en enkel teknik som i princip redan existerar i monitorerna.
En del löser det med ny mjukvara om deras hårdvara är bra nog, det jag misstänker att AMD gjort är att dom lagt till lite mer variabel timimng till framebufferten. Något Nvidia valt att lägga separat enbart av ett vinstintresse, problemet för dom blir ju då att dom själva stänger sig ute från att påverka den slutgilltiga standarden. I princip är det inte mer än omvänd overscan på TV sidan, inget superkliv i gämförelse med andra saker som USB eller 802.11 WiFi.
Påminner mig lite om RT-Datorn (Radio och Television) och det sätt den hanterade TV'n på den tiden, enkelt och gammalt men gör säkert nytta!
Tror nog att vi ser detta på monitorer i lägre prisklasser om ett par år...

Är ju en bra kliv för att slippa V-sync helt och hålllet. Underbart, enda som kommer i närheten är trippel buffring på GL tekniken. Men får hoppas det stämmer att det inte ska lägga på inputt lag, då kan man äntligen köra 59FPS eller 61FPS utan antingen droppa till 30 som v-sync plus en del unputlag och slippa tearing.

Bara det görs bra drivers så lär detta bli riktigt fint:)

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av tvelander:

"Det hela fungerar visserligen ännu inte helt fläckfritt och Nvidia klargör att det kommer att finnas upplevelsemässiga skillnader mellan G-Sync för bärbara och stationära datorer"

Roligt att alla läser, btw stog också att det fungerade inte 100 % på laptopen och att ibland fick den blackscreen kort och tappa ibland.

Och det sa Nvidia att de va det framebuffern i G-sync modulen i stationära skärmar löste så tror det finns anledning till varför stationära skärmar har det.

Framebuffer? Borde ju bli input-lag av det :S
Minst 10ms i 100hz, blää! Har du testat?

Visa signatur
Permalänk
Medlem
Skrivet av Broken-arrow:

Är ju en bra kliv för att slippa V-sync helt och hålllet. Underbart, enda som kommer i närheten är trippel buffring på GL tekniken. Men får hoppas det stämmer att det inte ska lägga på inputt lag, då kan man äntligen köra 59FPS eller 61FPS utan antingen droppa till 30 som v-sync plus en del unputlag och slippa tearing.

Bara det görs bra drivers så lär detta bli riktigt fint:)

Vi får hoppas det!
På tal om drivers, tror nog att även AMD begränsat till senare grafik/kretsar och då till viss del markadsmässigt.
Skulle inte förvåna mig att någon kommer med en patch som ger en del av funktionaliteten även på något äldre hårdvara när skärmar börjar bli tillgängliga

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
Medlem
Skrivet av Vesh:

Gällande G-Sync så kan jag tycka att det är rätt löjligt att ha några åsikter om hur det står sig mot alternativen i dagsläget, då det inte finns något annat på marknaden. Det ska bli spännande att se hur FreeSync står sig när det väl kommer ut på marknaden, skulle det visa sig ligga på samma nivå som G-Sync har jag väldigt svårt att se hur Nvidia ska kunna hålla kvar i G-sync men vi får förhoppningsvis svar på det snart

Håller helt med!
Även om det marginellt skulle vara bättre, så har låst hårdvara en tendens att trilla bort för öppna standarder...

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
Skrivet av Bengt-Arne:

Vi får hoppas det!
På tal om drivers, tror nog att även AMD begränsat till senare grafik/kretsar och då till viss del markadsmässigt.
Skulle inte förvåna mig att någon kommer med en patch som ger en del av funktionaliteten även på något äldre hårdvara när skärmar börjar bli tillgängliga

Möjligt, men enligt AMD själva så klarar inte själva hårdvaran av det. Men funkar ju i alla fall på vissa 2xx kort i alla fall

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Bengt-Arne:

Ser nog själv att både Nvidia's och AMD's lösning mer är en hype som ja löser vissa problem, menar här att det är en enkel teknik som i princip redan existerar i monitorerna.

Nej, inga monitorer har variabel uppdateringshastighet. Man skulle kunna ta en med mycket hög uppdateringshastighet (exempelvis 144 Hz) och uppdatera i multiplar av denna som ger heltal: 144, 72, 48, 36, 24, 18, 16 fps. men då måste man hålla sig till dessa hastigheterna. Ingen teknologi som fanns innan G-Sync kunde ge variabel uppdateringshastighet.

Skrivet av Bengt-Arne:

En del löser det med ny mjukvara om deras hårdvara är bra nog, det jag misstänker att AMD gjort är att dom lagt till lite mer variabel timimng till framebufferten.

Det finns mig veterligen inga belägg för att det går att åstadkomma variabel uppdateringshastighet utan att man antingen bygger om scalern i skärmen (G-Sync) eller skapar standarder som hanterar detta och bygger in dessa i både GPU, gränssnittet mot skärm och skärm (scaler och LCD). Ofta så klarar inte LCD-panelerna att drivas med variabel FPS och då måste man ha minne nog i LCD-kontrollern att lagra senaste bilden för att kunna återuppfriska LCD-panelen.

Skrivet av Bengt-Arne:

Något Nvidia valt att lägga separat enbart av ett vinstintresse, problemet för dom blir ju då att dom själva stänger sig ute från att påverka den slutgilltiga standarden. I princip är det inte mer än omvänd overscan på TV sidan, inget superkliv i gämförelse med andra saker som USB eller 802.11 WiFi.

Vid den tidpunkten som nVidia lanserade G-sync (Oktober 2013) så fans det inga alternativ, det är genom att nVidia lanserat variabel uppdatering och att AMD har kontrat som det idag finns möjlighet för "adaptive-sync" i DP 1.2a. Det är som att säga att om inte Apple lanserat iPhonen hade alla kopior av den likväl kommit ut och fungerat precis som de gör idag.

Permalänk
Medlem

Igen Nvidia? Aj aj aj...

Visa signatur

AMD Ryzen 1500X @ stock | Sapphire RX 580 Nitro+ 8GB | Asus ROG Strix B350-F Gaming | 2x8GB 3200MHz Corsair | EVGA Supernova G3 550W | Acer XF270HUA 1440P 144MHz Freesync

Permalänk
Medlem
Skrivet av beh:

Nej, inga monitorer har variabel uppdateringshastighet. Man skulle kunna ta en med mycket hög uppdateringshastighet (exempelvis 144 Hz) och uppdatera i multiplar av denna som ger heltal: 144, 72, 48, 36, 24, 18, 16 fps. men då måste man hålla sig till dessa hastigheterna. Ingen teknologi som fanns innan G-Sync kunde ge variabel uppdateringshastighet.

Fel!
Multisync
http://en.wikipedia.org/wiki/Multisync_monitor

Skrivet av beh:

Det finns mig veterligen inga belägg för att det går att åstadkomma variabel uppdateringshastighet utan att man antingen bygger om scalern i skärmen (G-Sync) eller skapar standarder som hanterar detta och bygger in dessa i både GPU, gränssnittet mot skärm och skärm (scaler och LCD). Ofta så klarar inte LCD-panelerna att drivas med variabel FPS och då måste man ha minne nog i LCD-kontrollern att lagra senaste bilden för att kunna återuppfriska LCD-panelen.

Se Multisync, ovan...

Skrivet av beh:

Vid den tidpunkten som nVidia lanserade G-sync (Oktober 2013) så fans det inga alternativ, det är genom att nVidia lanserat variabel uppdatering och att AMD har kontrat som det idag finns möjlighet för "adaptive-sync" i DP 1.2a. Det är som att säga att om inte Apple lanserat iPhonen hade alla kopior av den likväl kommit ut och fungerat precis som de gör idag.

Allt tyder på att det skedde samtidigt!

Och ja, troligen så skulle mobilerna varit nästan det samma utan iPhone.
Motorola A1000 kom mer än 3 år tidigare: http://www.gsmarena.com/motorola_a1000-653.php
Utvecklingen gick ju redan på just det hållet, med entusiaster som redan i början av 2000 började att spåna på ett Linux os till just touch mobiler (se 2.1 Android, länk nedan), har för mig att det blev utvecklat och tillverkat hårdvara som i och för sig var snordyr som man tyckte då. Med lite perspektiv så kan man nog säga att iPhone inte är billigare, skillnaden är att den köps på avbetalning med ett abb...
I princip så är det ju en naturlig fortsättning på smartphones: http://en.wikipedia.org/wiki/Smartphone
Varken mer eller mindre.

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
Medlem
Skrivet av Broken-arrow:

Möjligt, men enligt AMD själva så klarar inte själva hårdvaran av det. Men funkar ju i alla fall på vissa 2xx kort i alla fall

Precis
Kan ju vara lite marknadsmässigt även där, något dom inte kan säga då kravet direkt skulle komma om nya drivrutiner. Nu får dom istället sålt fler kort
En halv Nv... kanske

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
Medlem
Skrivet av Bengt-Arne:

Fel!
Multisync
http://en.wikipedia.org/wiki/Multisync_monitor
[...]
Se Multisync, ovan...

Haha, Multisync innebär inte att man kan ha variabel uppdatering och skicka ut en bild när man känner för det. Multisync betyder att en skärm kan synkronsiera på flera olika scanningsfrekvenser. Har du försökt att byta upplösning på en Multisync skärm? Klonk, säger det sedan darrar bilden i flera sekunder. Att diskret byta uppdateringshastighet är inte det samma som att kontinuerligt variera den. Nej, du har uppenbarligen ingen aning om vad du talar om.

Skrivet av Bengt-Arne:

Allt tyder på att det skedde samtidigt

Men nVidia fick ut sin produkt först, just för att den är properitär och att de inte behövde driva genom en ny ändring av en standard. När respektive företag startade sin interna utveckling vet vi inte. Men tydligen bedömde nVidia att time to market var viktigt.

Skrivet av Bengt-Arne:

och ja troligen så skulle mobilerna varit nästan det samma utan iPhone.
Motorola A1000 kom mer än 3 år tidigare: http://www.gsmarena.com/motorola_a1000-653.php
Utvecklingen gick ju redan på just det hållet, med entusiaster som redan i början av 2000 började att spåna på ett Linux os till just touch mobiler (se 2.1 Android, länk nedan), har för mig att det blev utvecklat och tillverkat hårdvara som i och för sig var snordyr som man tyckte då. Med lite perspektiv så kan man nog säga att iPhone inte är billigare, skillnaden är att den köps på avbetalning med ett abb...
I princip så är det ju en naturlig fortsättning på smartphones: http://en.wikipedia.org/wiki/Smartphone
Varken mer eller mindre.

Jag sa inte att iPhone var den första smartphonen, jag sa att de telefonerna som klonat den inte kunde gjort det om den inte fanns. Vi behöver inte radda upp gamla smartphones.