Nvidias G-Sync HDR-modul kostar mer än 5 500 kronor för slutkund

Permalänk
Medlem

När man ser en tråd som handlar om Nvidia, eller i detta fall G-Sync, så vet man redan innan man öppnar tråden nästan exakt hur alla shitposts kommer att vara utformade och vilka som skrivit dem. Det är bara en lång rad exempel på hur folk kan vara så trångsynta att de inte kan acceptera att andra att gör egna val i livet.

De flesta enligt mönstret ”Jag gillar de billigaste syntetiska hallonbåtarna på Olidligt, alltså är de som köper dyrare hallonbåtar på Snica lurade fårskallar”.

Det är generellt väldigt lite uppföljning av 1.6 i dessa trådar också, av någon anledning.

G-Sync är för övrigt bättre och mer genomtänkt, och det är lyckligtvis fritt för dem som inte vill ha det att köpa något annat. Att Nvidia inte slaktar sin egen IP för att blidka några som inte är intresserade av att betala för det är ganska självklart.

Det börjar bli ganska tjatigt att behöva påpeka att Freesync betalas med en annan finansieringsmodell samt att det är en proprietär tillämpning av VESA Adaptive Sync. Det borde stå utom rimligt tvivel att AMD aldrig skulle tillåta Nvidia att implementera det utan att bifoga en saftig licenskostnad.

Permalänk
Avstängd
Skrivet av Alling:

Jag hade inte heller köpt 4K idag. Men som du ser, det finns ingen motsvarande skärm med FreeSync och därför blir det i bästa fall oseriöst att säga att FreeSync är ”ett grafikkort billigare”. Du måste ju förstå att du inte kan jämföra 1440p och 4K rätt av, när det sistnämnda ligger precis på gränsen för vad dagens teknik klarar av.

jo men visst fast för 25 000 kr så väntar jag nog på en freesync panel. Med motsvarande teknik och hoppas på en mer human prislapp där jag inte behöver sälja en njure.

Skickades från m.sweclockers.com

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem

@Schluug:
Du vatten är så ute, Nu är det RGB kylning som gäller.
Är det för varmt sätt på ett blått ljus, för kalt ett rött ljus så blir det grönt i slutändan.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem

On:

Skrivet av Teddis:

Det är inte Nvidias pris utan kostnaden för komponenterna som utgör G-synk-modulen. Snackades om i tidigare tråd/artikel om skärmen.

Precis:
Den lär nog kosta desto mer. Eller så går det på en annan budget.
Om jag inte är felinformerad krävs det en hel del koll på panelen och det runt omkring för att veta i vilka spänningar man kan driva skärmen i den hz man vill.
Samtliga hz i spektrumet av de hz som är tillgängliga måste fungera.
Exempel: Testa 24,25,30,50,60,72,75,120,144,165hz tar tid. Vet man att t.ex denna skärm ska klara 24,25,30,60hz så bygger vi alt runt om kring det.
Men ska vi ha ett span från t.ex 24-165hz måste vi veta hur samtliga 141hz (165-24) fungerar. Och lägga in det i så kontrollern vet att denna panel beter sig såhär på varje frekvens. och om man kommer under 24hz eller om ni frågar mig långt innan dubblera bilderna så att skärmen inte flimrar.
De påstår att det är den stor del i utvecklingskostnaden. Antar att Paneltillverkare, Skärmtillverkare och de som bygger kontrollen, vilket i detta fall är nVidia, i andra fall någon kopplad till AMD eller VESA borde vara den tredje parten i det hela samarbetar så utvecklingskostnaden för den biten borde vara gemensam. Vet inte hur det fungerar men skulle inte förvåna mig om paneltilverkaren eller skärmtillverkaren har en validering på hela panelen den skickas sedan via ett program till nvidia eller ett nvidia program som flashar kontrollenheten för vad den ska ha på samtliga hz för just den panelen.

Borde gå att automatisera med tiden.
Men beror ju även på chip lotteriet. Hur mycket man måste kolla panelerna.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem
Skrivet av Laxpudding:

Anta att någon kretstillverkare rakt ur det blå byggde en ASIC, den första av sitt slag för att köra 4K/144 och byggde detta på öppna standarder. Vi vet av inläggen här på i tråden att den skulle bli hundra gånger bättre än Nvidias lösning, vilket förstås är uppskattat.

Men vad skulle en ASIC:n med adaptive sync och 4K/144 kosta per styck? Hur mycket billigare skulle skärmen bli ifall den i övrigt var identisk sånär som G-Sync-modulen?

Fram med miniräknarna nu!

42?

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem
Skrivet av Laxpudding:

Fram med miniräknarna nu!

Nu spår jag visserligen i sillspad, men det verkar vara en lika träffsäker räknemetod i detta fall.

5486 kronor och 37 öre får jag det till, och då behöver man bara lära sig så mycket om programmering att man klarar lista ut var det ska vara semikolon i källkoden till drivrutinerna, men öppen standard blev det!

Permalänk
Medlem

Gsync å freesync är bara filler för att hårdvara inte klarar av.
Men fortsätt å fyll giriga chefers plånböcker.

Visa signatur

Det du inte hinner idag hinner du inte imorgon med.

Permalänk
Medlem
Skrivet av Bloopy:

Gsync å freesync är bara filler för att hårdvara inte klarar av.

Lolwat. Det gäller ju i lika hög grad för all teknisk förfining då, eller hur drar du gränsen?