Nvidia gör uppgraderingspaket med G-Sync för Asus VG248QE

Permalänk
Medlem
Skrivet av Orici:

Så Mantle fungerar direkt med nVIDIA kort? Det visste jag inte.

Från vad jag förstått så ska det inte funka direkt. nVidia måste lägga till stödet själva. Och det lär inte flyta i närheten lika bra. Då Mantle i huvudsak är gjort för att fungera med GCN.

Permalänk
Medlem
Skrivet av Bordsvatten:

JA, jag har spelat/spelar Far Cry 3 och har 60 Hz skärm så jag vet vad screen tearing är.

Får man fråga vilken skärm det rör sig om ? (svara nu så jag inte bojkottar dig framöver )

Permalänk
Medlem
Skrivet av oi:

Får man fråga vilken skärm det rör sig om ? (svara nu så jag inte bojkottar dig framöver )

Haha det är en Dell U2312hm

Permalänk
Medlem

Det verkar finnas en hel del okunskap här i tråden vad gäller detta. Rekommenderar alla att läsa dessa två artiklar, men för er som inte orkar kommer här några utdrag:

Skrivet av Anandtech:

I'm hearing that NVIDIA wants to try and get the module down to below $100 eventually.

Så priset kommer att gå ner med tiden, vilket är bra även om 1400 sek inte är särskilt mycket pga en viktig punkt som folk här i tråden verkar ha missat:

Skrivet av Anandtech:

NVIDIA then dropped the frame rate even more, down to an average of around 45 fps but also introduced variability in frame times, making the demo even more realistic. Once again, the traditional setup with v-sync enabled was a stuttering mess while the G-Sync system didn't skip a beat.

Next up was disabling v-sync with hopes of reducing stuttering, resulting in both stuttering (still refresh rate/fps mismatch) and now tearing. The G-Sync system, once again, handled the test case perfectly. It delivered the same smoothness and visual experience as if we were looking at a game rendering perfectly at a constant 60 fps. It's sort of ridiculous and completely changes the overall user experience. Drops in frame rate no longer have to be drops in smoothness. Game devs relying on the presence of G-Sync can throw higher quality effects at a scene since they don't need to be as afraid of drops in frame rate excursions below 60 fps.

Switching gears NVIDIA also ran a real world demonstration by spinning the camera around Lara Croft in Tomb Raider. The stutter/tearing effects weren't as pronounced as in NVIDIA's test case, but they were both definitely present on the traditional system and completely absent on the G-Sync machine. I can't stress enough just how smooth the G-Sync experience was, it's a game changer.

We've seen a resurgence of PC gaming over the past few years, but G-Sync has the potential to take the PC gaming experience to a completely new level.

Skrivet av PcPerspective:

After finally seeing the demonstrations and side by side comparisons in person, I have to say the effect of NVIDIA G-Sync is quite impressive and dramatic.

45 FPS som känns som 60? Om vi då tittar på denna bild:

så ser vi att det krävs ett GTX 780 för att nå 60 FPS, medan det räcker med ett 280X för att nå 45 FPS. Enligt prisjakt kostar ett GTX 780 ca 4900 kronor medan ett 280X kostar cirka 2500 kronor. Det är en prisskillnad på 2400 kronor! Så det borde gå att spara in ~1000 kronor totalt sett och ändå få samma upplevelse, om man får tro Anandtech.

Lite egna tankar och åsikter:

• Det är inga små löften dom har gett oss, och jag hoppas verkligen att det lever upp till hypen som har skapats. Med tanke på vad Anandtech, PcPerspective, Johan Andersson, Tim Sweeney och John Carmack har sagt när de sett det "in action" så är åtminstone mina förväntningar ganska höga.

• Det borde gå att köpa en lös modul som fungerar med ett flertal skärmar och inte endast några enstaka modeller som Nvidia anser vara "populära gamingskärmar". För några månader sen köpte jag en ny IPS-skärm för ~5300 kronor, och den byter jag inte bort i första taget, och absolut inte mot någon !"#¤%& TN-skärm.

• Det borde vara en öppen standard och är det inte det, så borde skärmtillverkarna ta fram en egen standard (vilket borde ha gjorts för länge sedan, det är väl kanske bara det att ingen har tänkt på det eller också har dom gjort det, men inte vågat satsa på det). Om endast användare med Nvidia-kort kan använda sig av tekniken så är det inte intressant, man kan ha ett Nvidia-kort idag och ett AMD nästa år.

Permalänk
Medlem
Skrivet av Bordsvatten:

Haha det är en Dell U2312hm

Tack!

Permalänk
Skrivet av KNI-861:

45 FPS som känns som 60? Om vi då tittar på denna bild: *BILD* så ser vi att det krävs ett GTX 780 för att nå 60 FPS, medan det räcker med ett 280X för att nå 45 FPS. Enligt prisjakt kostar ett GTX 780 ca 4900 kronor medan ett 280X kostar cirka 2500 kronor. Det är en prisskillnad på 2400 kronor! Så det borde gå att spara in ~1000 kronor totalt sett och ändå få samma upplevelse, om man får tro Anandtech.

Och då kan du ju jämföra ett 280X som kostar 2500kr med ett GTX760 som kostar 2200kr och se att det är ännu bättre prestanda per krona. Tvivlar på att det är möjligt att se skillnad på 42 eller 44 FPS med G-sync. Då går det ju att spara in ytterligare 300kr! Otroligt, eller hur?

<\IRONI>Självklart skalar inte pris/prestanda linjärt hela tiden, det är en logaritmisk kurva, har alltid varit och kommer (förmodligen) alltid vara. De som vill ha högre prestanda och en bättre upplevelse får betala mer, men det är deras val. Att sedan jämföra en helt ny generation grafikkort inklusive en teknik som inte ens fungerar än på dem med ett kort som funnits ute på marknaden ett tag utan denna teknik är väldigt dumt. Spekulationer, all over the place.

Permalänk
Medlem
Skrivet av 11k:

Ja precis, det enda stora AMD inte delar är ju mantle.

Skickades från m.sweclockers.com

Fel! Mantle är öppen och kan användas av nidvia om de vill, fördelen för amd är anpassningen då mantle är skräddarsydd för amds hårdvara av uppenbara själ . Men fritt fram för nvidia att använda

Permalänk
Medlem

Undra om g-sync kan ge bättre upplevelse av multi gpu lösningar då dessa ofta svajar mer i renderinstider än singel gpu?

Permalänk
Medlem
Skrivet av Xeno88:

Ännu en sak som NVIDIA gör som bara fungerar på deras kort. Intressant hur AMD nästan alltid använder öppna tekniker medans NVIDIA låser allt.

Du menar som deras nya API Mantle (fritt? jo tjena...)? Eller deras EV6 buss. Eller crossfire.
Här har du flera tekniker som de inte ämnar dela med sig av: http://stks.freshpatents.com/AMD-sym.php

Varför skulle Nvidia/AMD göra en teknik tillgänglig för sin värste konkurrent?

Permalänk
Skrivet av Halfow:

Fel! Mantle är öppen och kan användas av nidvia om de vill, fördelen för amd är anpassningen då mantle är skräddarsydd för amds hårdvara av uppenbara själ . Men fritt fram för nvidia att använda

*skäl

Du är inte dyslektisk, bara slapp. Läs igenom innan du postar.

Permalänk
Hjälpsam

Cuda är skräddarsytt för Nvidia, som inte låter AMD använda Cuda.
Men jag vänder mig inte mot att Nvidia vill stänga in sina grejer, jag vänder mig mot att så många verkar bli glada över att de försöker låsa oss till en viss tillverkare.
Det är som att se en gäng grisar skina upp när de ser slaktbilen köra in på gårdsplan vid juletid.
Hur kul är det med bara en tillverkare?
Som kund försöker jag välja bort sådana lösningar.

Permalänk
Medlem
Skrivet av Ratatosk:

Cuda är skräddarsytt för Nvidia, som inte låter AMD använda Cuda.
Men jag vänder mig inte mot att Nvidia vill stänga in sina grejer, jag vänder mig mot att så många verkar bli glada över att de försöker låsa oss till en viss tillverkare.
Det är som att se en gäng grisar skina upp när de ser slaktbilen köra in på gårdsplan vid juletid.
Hur kul är det med bara en tillverkare?
Som kund försöker jag välja bort sådana lösningar.

nVIDIA arbetar ju för att göra kunder nöjda och tillfredställa behov av bra GPGPU o.s.v.. Vad är det för fel med det? AMD har FirePro.

Permalänk
Hjälpsam
Skrivet av Orici:

nVIDIA arbetar ju för att göra kunder nöjda och tillfredställa behov av bra GPGPU o.s.v.. Vad är det för fel med det? AMD har FirePro.

Nej det är absolut inget fel med det, det handlade om detta att Mantle inte skulle passa till Nvidakort.
Vad som inte lockar mig, är att tvingas köpa en Nvidiamonitor om jag köper ett Nvidiakort eller en AMD monitor om jag köper ett AMD-kort.

Permalänk
Medlem
Skrivet av Ratatosk:

Nej det är absolut inget fel med det, det handlade om detta att Mantle inte skulle passa till Nvidakort.
Vad som inte lockar mig, är att tvingas köpa en Nvidiamonitor om jag köper ett Nvidiakort eller en AMD monitor om jag köper ett AMD-kort.

Stog det inte någon om licensering?

Permalänk
Hjälpsam
Skrivet av Orici:

Stog det inte någon om licensering?

I så fall har jag missat det, licensering är ju sällan fritt att använda.

edit Får se om jag får tid att läsa på lite, onekligen intressant teknik.

Permalänk
Medlem

Live stream nu på twitch med PC perspective där de har Nvidia i studion för att demonstrera G-Sync

http://www.twitch.tv/pcper/b/472242159

Permalänk
Medlem

Att vi har en låst frekvens är på grund av en kvarleva från hur CRTskärmar fungerar. Med LCD som har bakgrundsbelysning behövs det inte. Det är lustigt att det fått leva kvar så länge.

Permalänk
Medlem

1.4 papp för ett nytt GUI till skärminställningarna och möjligheten att sänka till 85hz? Låter som en jävligt dålig deal.

Permalänk
Medlem
Skrivet av Xeno88:

Ännu en sak som NVIDIA gör som bara fungerar på deras kort. Intressant hur AMD nästan alltid använder öppna tekniker medans NVIDIA låser allt.

Ser knappast något problem i det hela.

Permalänk
Medlem

I teorin så är ju detta underbart, kanske ett totalt slut för microstuttering? Det är rätt kasst att grafikkort och skärm inte kan kommunicera alls idag för att komma i rätt takt med varandra. Nu får vi väl hoppas att detta funkar i praktiken också, speciellt för 1400 spänn.

Permalänk
Entusiast
Skrivet av Orici:

nVIDIA arbetar ju för att göra kunder nöjda och tillfredställa behov av bra GPGPU o.s.v.. Vad är det för fel med det? AMD har FirePro.

Fast FirePro är ju bara deras produkter för CAD och annat. Det är samma sak som Quadro och till viss del nu även Tesla men inte alls i samma utsträckning. De använder sig av OpenGL och OpenCL. CUDA är ett stängt språk som bara fungerar mot Nvidias GPUer. Det är även namnet på deras kärnor. Det är ett C-liknande språk som används för att skriva GPGPU-grejer. Så om ett företag satsar på att porta all sin kod till CUDA måste de sedan köra Nvidia. Det verkar som om det har gått sådär med det. Adobe har ju till exempel gått ifrån CUDA och satsar istället på OpenGL och OpenCL för att slippa låsa sig till en tillverkare. Det är extra viktigt nu när till och med integrerad grafik klarar av att köra en del specialeffekter. Det är till exempel högintressant för fotografer som faktiskt jobbar en del på laptopar.

Sen är det ju företag som är den stora målgruppen. Där gäller det att övertyga dem om att det är värt att lägga massa pengar på att skriva om fungerande kod till CUDA, ett språk som tydligen inte är alltför roligt att arbeta med. Nu har Nvidia och Microsoft tydligen fixat Cg också vilket ska vara mycket enklare för att det är väldigt likt C. Fast det är högnivå och kompilatorn spottar ur sig DirectX eller OpenGL.

Så det är väl mest ett till exempel på hur utvecklingsfilosofin skiljer sig markant mellan AMD och Nvidia. AMD väljer att satsa på öppna standarder och utveckla dem medan Nvidia föredrar slutna standarder som bara fungerar med deras hårdvara. Får se hur det går i längden.

Nu har ju Nvidia fått en rätt allvarlig konkurrent till deras Tesla genom Intels Xeon Phi. Den stora fördelen med Xeon Phi är att det är massa x86-kärnor så det går att köra kod rakt av utan att ens behöva kompilera om och ändå få en prestandaökning. Vill man ha mer så har Intel den bästa kompilatorn för FORTRAN så det ska tydligen räcka med att sätta ett par flaggor och kompilera om koden vilket ska ge en ännu bättre prestandaökning. Bäst är så klart att skriva om från grunden för att pressa ut det sista. Men även där har de fördelen med att det är enklare att konvertera. Framförallt behöver man inte lära sig ett helt nytt språk för att få det att fungera.

Så jag vet inte hur vanligt det faktiskt är med CUDA i praktiken. Nvidia är ju duktiga på att snacka skit i PR-material. De två bästa exemplen är hur de skryter om att det är över 400 spel som stödjer PhysX och därför ska man köpa Nvidia. Vad de inte säger är att det bara är 25 spel som faktiskt stödjer fysikberäkning på GPU. Resten använder bara fysikmotorn PhysX som vilken annan fysikmotor som helst. Kan förstå att det är lockande då den är gratis för PC och Nvidia brukar vara duktiga på att hjälpa till. Till större spel skickar de ut egna ingenjörer för att hjälpa till med kodandet. Så det är ju lite lockande. Poängen är dock att det bara är 25 spel av över 400 som har någon som helst nytta av att köras på Nvidia. Resten spelar det ingen som helst roll. Sen var det ju deras PR runt Photoshop för ett par år sedan. Adobe integrerade stöd för OpenGL och CUDA. Tror det var Photoshop 5. Nvidia skrev på sin hemsida om att PS nu stödde CUDA och så listade de alla häftiga funktioner som nu kunde köras på Nvidias grafikkort. Bara det att alla inbyggda funktioner som de listade var OpenGL och således inte unika för Nvidia. Det var många som blev lurade. Det fanns ett par paket med plugins som körde CUDA men har aldrig hört talas om någon som faktiskt använt dem.

Permalänk
Skrivet av Mayth:

Vad har frame relay med detta att göra? Det är något helt annat

Intressant teknik. Dock så finns det redan i DVI som många har sagt. Det måste nog komma ner i pris för att ha en chans. Samt att det inte får vara för mycket premium på skärmar som säljs med det.

Mvh
Mayth

Menade frame pacing, inte frame relay. (Kan däremot svära på att någon kallat det frame relay)
Anyways, jag hade rätt, PC Perspective släppte precis en video på 1 timme och 15 minuter där de pratar om G-Sync.
http://www.youtube.com/watch?v=KhLYYYvFp9A

Permalänk
Medlem
Skrivet av Shockwave:

Menade frame pacing, inte frame relay. (Kan däremot svära på att någon kallat det frame relay)
Anyways, jag hade rätt, PC Perspective släppte precis en video på 1 timme och 15 minuter där de pratar om G-Sync.
http://www.youtube.com/watch?v=KhLYYYvFp9A

Säger någon frame relay så skäll på dem. Det är en väldigt vanligt nätverksprotokoll för företag som använders sig av hyrda linor på andra sidan atlanten. Finns i viss mån i europa åxå. Men det är inte så vanligt.

Att du skulle ha rätt angående det tvekade jag inte en sekund på.

Mvh
Mattias

Permalänk
Skrivet av Mayth:

Säger någon frame relay så skäll på dem. Det är en väldigt vanligt nätverksprotokoll för företag som använders sig av hyrda linor på andra sidan atlanten. Finns i viss mån i europa åxå. Men det är inte så vanligt.

Att du skulle ha rätt angående det tvekade jag inte en sekund på.

Mvh
Mattias

Jo, man är ju Cisco Associate så jag har ju haft tenta med frame relay switchar själv, känns dumt att jag bandade ihop namnen med frame pacing. Men när man läst om så många olika saker inom teknik så kan det bli svårt ibland att hålla isär termerna. ^^

Permalänk
Medlem

Har någon information om när uppgraderingspaketet kommer finnas i butiker?

Permalänk
Medlem
Skrivet av Dunde:

Du menar som deras nya API Mantle (fritt? jo tjena...)? Eller deras EV6 buss. Eller crossfire.
Här har du flera tekniker som de inte ämnar dela med sig av: http://stks.freshpatents.com/AMD-sym.php

Varför skulle Nvidia/AMD göra en teknik tillgänglig för sin värste konkurrent?

Och enda konkurrent.

Skickades från m.sweclockers.com

Permalänk
Entusiast
Skrivet av Dunde:

Du menar som deras nya API Mantle (fritt? jo tjena...)? Eller deras EV6 buss. Eller crossfire.
Här har du flera tekniker som de inte ämnar dela med sig av: http://stks.freshpatents.com/AMD-sym.php

Varför skulle Nvidia/AMD göra en teknik tillgänglig för sin värste konkurrent?

Fast nu får du hålla isär vissa saker här. Teknik för att köra dubbla grafikkort är ju starkt kopplat till arkitekturen och kräver mycket jobb på drivrutinsnivå vilket gör att Nvidia inte hade varit direkt intresserade av crossfire. De har redan SLI som de köpte på sig för en herrans massa år sedan. En intressant poäng här är att crossfire faktiskt är gratis att implementera på moderkort medan Nvidia tar licenspengar för att man ska använda SLI. Det är därför alla moderkort har stöd för crossfire medan det bara är de dyrare som har stöd för SLI. Så även där kan man argumentera för att crossfire är mer öppet eftersom det faktiskt är gratis. Ett tag vägrade Nvidia släppa stöd för SLI till andra än sina egna styrkretsar också.

Ett annat fint exempel är PhysX. Man kan ju acceptera att det bara fungerar på Nvidias kort men det är ju lite fult att de blockerar PhysX helt om det finns ett grafikkort från AMD i datorn. Tidigare kunde man köra ett AMD kort för grafiken och sedan dedikerat Nvidia för fysik men det var tydligen inte ok. Det ska bara vara Nvidia av ren princip.

Så generellt har AMD en betydligt öppnare attityd till ny teknik än Nvidia har. Det är olika filosofier.