Nvidia tillkännager arkitekturen "Turing" med GDDR6-minne och fokus på ray tracing

Permalänk
Hjälpsam
Skrivet av DasIch:

Inga. Vad är det du försöker få sagt?

Skickades från m.sweclockers.com

Har du läst mitt tidigare inlägg?

Skrivet av Ratatosk:

Försöker Nvidia, via Gameworks, tvinga ned detta i halsen på alla PC-spelare, kommer de att mötas av gudabenådad shitstorm, inte bara från de som kör AMD, utan även från alla de Nvidia ägare som inte kör Turing, vilket i dag är i princip varenda en.

Det är säkert Ok för många som äger Nvidia, om Gameworks ställer till det för de som kör AMD, men alla som kör Pascal eller äldre, kommer att bli urförbannade, om Gameworks ställer till det även för dem.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Ratatosk:

Har du läst mitt tidigare inlägg?

"Försöker Nvidia, via Gameworks, tvinga ned detta i halsen på alla PC-spelare, kommer de att mötas av gudabenådad shitstorm, inte bara från de som kör AMD, utan även från alla de Nvidia ägare som inte kör Turing, vilket i dag är i princip varenda en."

Det är säkert Ok för många som äger Nvidia, om Gameworks ställer till det för de som kör AMD, men alla som kör Pascal eller äldre, kommer att bli urförbannade, om Gameworks ställer till det även för dem.

Jag tror faktiskt inte att det skulle bli någon som helst shitstorm.

Det beror helt på hur man presenterar det för den hela stora massan:

"Kolla! Vi har skapat ny hårdvara som låter spelutvecklarna skapa jättesnygga ljuseffekter i spel!"
kontra
"Vi kommer enbart aktivera denna funktion i nya Geforce-kort [för att vi kan och det är inget annat än en konstgjord begränsning]"

Permalänk
Medlem
Skrivet av Datanisse:

På vilket sätt är att stödja öppna standarder ge bort något gratis? Det är väl ändå Nvidias kort som ska fungera mot dessa.

Om man ska argumentera på det sättet så blir det ju svårt att uppfinna något nytt. Bakåtkompatibilitet i all ära, men man får nog acceptera att vissa tekniksteg inte kan göras bakåtkompatibla p.g.a. tekniska begränsningar.

Det får bli en option under grafikinställningar, som allt annat.

Permalänk
Medlem
Skrivet av Ratatosk:

Har du läst mitt tidigare inlägg?
Det är säkert Ok för många som äger Nvidia, om Gameworks ställer till det för de som kör AMD, men alla som kör Pascal eller äldre, kommer att bli urförbannade, om Gameworks ställer till det även för dem.

Jag ser inte hur nVidia kan ställa till det mer än att göra det till en GameWorks-feature. Om du syftar på att det kommer vara exklusivt för den nya hårdvaran så blir det ändå lite av en icke-fråga. Raytracing kommer troligen vara för krävande för att bli meningsfullt på Pascal.

Permalänk
Medlem
Skrivet av Sveklockarn:

Man kan nog dela upp världen i folk som lyssnar på honom och folk som inte gör det.
Öppna standarder är tyvärr ingenting för dem som vill ha de bästa grejerna. Det är ingen som lägger ner massor av tid på att utveckla teknik som man sen ger bort gratis till konkurrenten.

Det där stämmer inte alls. Orsaken varför öppna standarder inte blivit populära är helt enkelt för att för få stora aktörer lägger fokus på dessa. Nvidia skulle t.ex. kunna göra G-sync till en "öppen" standard om de velat.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem
Skrivet av Xinpei:

Orsaken varför öppna standarder inte blivit populära är helt enkelt för att för få stora aktörer lägger fokus på dessa.

Vad jobbar du med?

Skrivet av Xinpei:

Nvidia skulle t.ex. kunna göra G-sync till en "öppen" standard om de velat.

Varför skulle de ge bort det till folk som inte är deras kunder, som inte betalat utvecklingen genom att köpa Nvidia-hårdvara? Vad blir nästa steg, att Nvidia skriver fungerande drivrutiner till Radeon-kort bara för att vara schyssta?

Permalänk
Hedersmedlem
Skrivet av Sveklockarn:

Öppna standarder är tyvärr ingenting för dem som vill ha de bästa grejerna. Det är ingen som lägger ner massor av tid på att utveckla teknik som man sen ger bort gratis till konkurrenten.

Isåfall så tycker jag att du ska dra ur din bildkabel ur bildskärmen (oavsett om det är DisplayPort, HDMI, DVI eller VGA), dra ur elkabeln ur datorn, montera ner din dator som (gissningvis) är byggd enligt ATX, kasta din nätdel, alla dina PCI-kort, dra ur nätverkskabeln (Ethernet), slänga ALLT som har USB, innan du slänger allt som kan ta ström genom standardiserad ström i vägguttaget eller standardiserade batterier. Fortsätt sedan med att dra ur allt elmateriel ur huset, och fortsätt med alla rör när du ändå håller på. Samt även bort med alla kylskåp och andra vitvaror som har standardmått.

Glöm inte att avinstallera alla webbläsare (HTML, CSS, HTTP, bland annat) och dekonfigurera din nätverksstack (TCP/IP) och kasta din mobiltelefon (GSM och andra tekniker). Du måste också sluta kommunicera med omvärlden med ASCII och Unicode.

Till sist får du leta upp alla maskinskruvar i ditt hus, antingen om de är tumskruv, eller metriska. Oavsett vad så är det en standard (även om det finns två att välja på) och skruva ut dem och lägga dem i en påse och kasta.

Allt det jag nämner har en massa såna där öppna standarder i som bara gör allt sämre. För du är väl inte en sån där person som inte bara vill ha de bästa grejerna?

Permalänk
Medlem
Skrivet av pv2b:

Isåfall så tycker jag att du ska dra ur din bildkabel ur bildskärmen (oavsett om det är DisplayPort, HDMI, DVI eller VGA), dra ur elkabeln ur datorn, montera ner din dator som (gissningvis) är byggd enligt ATX, kasta din nätdel, alla dina PCI-kort, dra ur nätverkskabeln (Ethernet), slänga ALLT som har USB, innan du slänger allt som kan ta ström genom standardiserad ström i vägguttaget eller standardiserade batterier.

Glöm inte att avinstallera alla webbläsare (HTML, CSS, HTTP, bland annat) och dekonfigurera din nätverksstack (TCP/IP) och kasta din mobiltelefon (GSM och andra tekniker). Du måste också sluta kommunicera med omvärlden med ASCII och Unicode.

Menar du att all denna teknik har getts bort gratis, att ingen del av kostnaden legat i produkterna som sålts?

I så fall undrar jag hur alla dessa utvecklare lyckats överleva. Förklara gärna det.

Skrivet av pv2b:

Allt det jag nämner har en massa såna där öppna standarder i som bara gör allt sämre.

Om man tittar på t.ex. DisplayPort så heter det att den är "royalty free" men när man skrapar lite på ytan så ser man att det finns en licenskostnad på $0.2/enhet plus andra kostnader för DRM-teknikerna som behövs för att t.ex. kunna titta på visst material, så det blir inte gratis att implementera bara för att någon tolkar det så.

Datorvärlden funkar liksom inte annorlunda än resten av världen.

Permalänk
Medlem

Finns lite mer info om de 3 modellerna.

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Medlem
Skrivet av Vangen:

Finns lite mer info om de 3 modellerna.

Mycket lustigt.

2080 kommer antagligen ha MSRP $599 eller lägre. Vad det blir i SEK kan man ju bara spå i sillaspad om.

Permalänk
Hedersmedlem
Skrivet av Sveklockarn:

Menar du att all denna teknik har getts bort gratis, att ingen del av kostnaden legat i produkterna som sålts?

Nej, det menar jag inte. Det har jag aldrig sagt. Det påstående jag svarade på var ditt absurda påstående att "öppna standarder är tyvärr ingenting för dem som vill ha de bästa grejerna".

Med det sagt så finns det faktiskt väldigt mycket teknik som faktiskt getts bort gratis av olika skäl, antingen för att företag inte tjänar pengar på tekniken som sådan, eller för att själva vinsten har varit att ha interoperabilitet.

Sedan så är det skillnad på en öppen standard som vem som helst kan implementera men betala en liten royalty på, och en stängd standard som per design inte någon annan än tillverkaren själv får använda.

Ett exempel på en stängd standard i det här fallet (för att försöka ta oss tillbaka till ämnet) är Nvidias G-sync-teknik. För att en monitor ska stödja Nvidia:s G-sync så kan de inte implementera standarden själva, de måste köpa en G-sync-modul av Nvidia för att det ska funka. FreeSync är baserat på den standardiserade VESA Adaptive Sync-standarden, och kan implementeras av vem som helst. Nu ska det vara sagt att det finns några dåliga implementationer av FreeSync, fast det hör ju ändå till att vissa tillverkare tillverkar något bättre än en annan. En bra FreeSync-skärm är varken sämre eller bättre än en Nvidia G-sync-skärm. Enda som skilljer är om tekniken är stängd eller öppen, och vilka grafikkort den fungerar med.

Permalänk
Medlem
Skrivet av pv2b:

Nej, det menar jag inte. Det har jag aldrig sagt. Det påstående jag svarade på var ditt absurda påstående att "öppna standarder är tyvärr ingenting för dem som vill ha de bästa grejerna".

Jag menar som i aspekten "det finns ingen fri lunch".

Skrivet av pv2b:

Sedan så är det skillnad på en öppen standard som vem som helst kan implementera men betala en liten royalty på, och en stängd standard som per design inte någon annan än tillverkaren själv får använda.

Ett exempel på en stängd standard i det här fallet (för att försöka ta oss tillbaka till ämnet) är Nvidias G-sync-teknik. För att en monitor ska stödja Nvidia:s G-sync så kan de inte implementera standarden själva, de måste köpa en G-sync-modul av Nvidia för att det ska funka. FreeSync är baserat på den standardiserade VESA Adaptive Sync-standarden, och kan implementeras av vem som helst. Nu ska det vara sagt att det finns några dåliga implementationer av FreeSync, fast det hör ju ändå till att vissa tillverkare tillverkar något bättre än en annan. En bra FreeSync-skärm är varken sämre eller bättre än en Nvidia G-sync-skärm. Enda som skilljer är om tekniken är stängd eller öppen, och vilka grafikkort den fungerar med.

AMD skulle säkert kunna få använda G-Sync mot en nätt licenskostnad, men ingen av dem skulle bedömt ha något intresse av det. Det skulle ju ändå bli likadant med kunder som inte ville betala mer för skärmen, och inte ha någon nytta av sitt G-Sync-stöd. Att Nvidia inte tjänar sina pengar på själva G-Sync-hårdvaran i skärmar är väl också ganska klart vid det här laget, med tanke på hur relativt lite det skiljer i konsumentled.

G-Sync har ju diskuterats i många andra trådar, men styrkan i att den är proprietär är just att det funkar exakt som Nvidia har tänkt. Sen har ju G-Sync genomgående varit bättre, även om Freesync tydligen lyckats komma ikapp på många områden gällande frekvensspann de fungerar inom osv.

Det blir ju fortfarande så att något som ska skickas med på köpet antingen måste betalas med marginalerna och/eller kommer att bli ett sämre alternativ än något man betalar extra för.

Permalänk
Medlem
Skrivet av Sveklockarn:

Mycket lustigt.

2080 kommer antagligen ha MSRP $599 eller lägre. Vad det blir i SEK kan man ju bara spå i sillaspad om.

nVidias övertag på marknaden gentemot AMD kan mycket väl vara rekordstort. Varför tror vi på 599$? De kan mycket väl sikta på att ha halo-priser i början.

Permalänk
Hedersmedlem
Skrivet av Sveklockarn:

Jag menar som i aspekten "det finns ingen fri lunch".
AMD skulle säkert kunna få använda G-Sync mot en nätt licenskostnad, men ingen av dem skulle bedömt ha något intresse av det.

G-Sync har ju diskuterats i många andra trådar, men styrkan i att den är proprietär är just att det funkar exakt som Nvidia har tänkt. Sen har ju G-Sync genomgående varit bättre, även om Freesync tydligen lyckats komma ikapp på många områden gällande frekvensspann de fungerar inom osv. Det blir ju fortfarande så att något som ska skickas med på köpet antingen måste betalas med marginalerna och/eller kommer att bli ett sämre alternativ än något man betalar extra för.

Nejdå, det finns ingen fri lunch. Ingen teknik har någonsin utvecklats av någon utan att någon betalat för det. Även i de få fall där eldsjälar jobbar på en grej hemma så har de själva betalat med den tid som de annars hade lagt på att göra något annat.

Det är egentligen inte rättvist att jämföra FreeSync och G-sync på det sättet. Det är ingen som gör en dålig bildskärm med G-sync eftersom tekniken är så pass dyr att det helt enkelt inte skulle sälja. Till saken hör att Nvidia faktiskt har stöd för VESA Adaptive Sync i sina drivrutiner (de använder det t.ex. i gaminglaptops) men väljer helt enkelt att stänga av funktionen på externa bildskärmar. De väljer att inte göra detta just för att folk ska köpa G-sync istället.

Ska man jämföra G-sync med FreeSync måste man göra det på bildskärmar som kostar lika mycket med liknande specar, inte dra ett genomsnitt av alla skärmar på marknaden.

Permalänk
Medlem
Skrivet av Aleshi:

nVidias övertag på marknaden gentemot AMD kan mycket väl vara rekordstort. Varför tror vi på 599$? De kan mycket väl sikta på att ha halo-priser i början.

Oavsett övertag och att AMD kanske inte släpper ett Navi-kort förrän till julen 2019 (när de kommer få konkurrera mot 2080 Ti/Titan) så ville de fortfarande fortsätta volymsälja nya kort. Kunderna blir inte magiskt rikare av att de chockhöjer priset, utan det skulle bara skjuta upp en massa inköp och strypa deras inkomster.

Det här om att de skulle chockhöja har vi ju hört ett tag nu, men även 1080 hade MSRP $549.

https://www.nvidia.com/sv-se/geforce/buy/

Permalänk
Medlem
Skrivet av pv2b:

Det är ingen som gör en dålig bildskärm med G-sync eftersom tekniken är så pass dyr att det helt enkelt inte skulle sälja.

G-Sync har ju dock krupit ner i segmenten, och idag hittar jag flera skärmar AOC G2460PG och Acer Predator XB241H (snabba TN med G-Sync) under 4000 kr på Prisjakt. Om en kund betalar ~1500 kr extra för en skärm med G-Sync så är det kanske en tiondel av det i tillverkarled, så det handlar nog mycket om att ha det i modeller som man tror att entusiaster kan vara intresserade av.

Skrivet av pv2b:

Till saken hör att Nvidia faktiskt har stöd för VESA Adaptive Sync i sina drivrutiner (de använder det t.ex. i gaminglaptops) men väljer helt enkelt att stänga av funktionen på externa bildskärmar. De väljer att inte göra detta just för att folk ska köpa G-sync istället.

G-Sync på laptops är en proprietär variant av VESA Adaptive Sync, precis som Freesync är en prioprietär variant av VESA Adaptive Sync. De kan lösa G-Sync-funktionaliteten på laptops p.g.a. hur bildskärmen är ihopkopplad med grafikkortet. I en bärbar dator får man full kontroll över den aspekten, och det är nog främst där skillnaden ligger.

Läste en väldigt djupgående Reddit-tråd i ämnet i samband med att jag skulle köpa gaminglaptop för ~2 år sedan, men har inte lyckats googla fram den här tyvärr.

Skrivet av pv2b:

Ska man jämföra G-sync med FreeSync måste man göra det på bildskärmar som kostar lika mycket med liknande specar, inte dra ett genomsnitt av alla skärmar på marknaden.

Precis, det gick ju t.ex. att jämföra Asus MG279Q med PG279Q som släpptes samtidigt.

Den senare kan vara bland de bästa gamingskärmarna någonsin, i mitt tycke.

Permalänk
Medlem

Säkert maffigt!
Med en "turing" på lotto kanske man har råd med det också

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem
Skrivet av Sveklockarn:

Oavsett övertag och att AMD kanske inte släpper ett Navi-kort förrän till julen 2019 (när de kommer få konkurrera mot 2080 Ti/Titan) så ville de fortfarande fortsätta volymsälja nya kort. Kunderna blir inte magiskt rikare av att de chockhöjer priset, utan det skulle bara skjuta upp en massa inköp och strypa deras inkomster.

Det här om att de skulle chockhöja har vi ju hört ett tag nu, men även 1080 hade MSRP $549.

https://www.nvidia.com/sv-se/geforce/buy/

Men nu har det snackats om att hela lanseringen blivit försenad av för stora lager av Pascal. Jag tror ju också att de vill fortsätta sälja i volym, och måste förnya sig för att kunna göra det. Men som enda spelare i övre halvan av prestandasegmenten så kommer de sälja volym även med rätt höga priser.

Förr låg de på 499$ för toppkorten, med 780 gick de upp till 649$. 980 låg på 549$, men skiljde inte mycket från 290X eller 780Ti så det är förklarligt. 1080 kom först för 699$ för Founders Edition som var det enda man kunde få tidigt, 1080 som kom senare hade på pappret 599$, men var i praktiken närmare Founders Edition i pris.

Så, om vi ser till historien, och har det historiskt stora försprånget i åtanke, så tror jag att 599$ är lite lågt. Tror mer på 649$ eller 699$. Och säger inte att det är omöjligt med högre pris.

Permalänk
Medlem
Skrivet av Aleshi:

Men nu har det snackats om att hela lanseringen blivit försenad av för stora lager av Pascal.

De skulle ju hypotetiskt kunna köra vidare 10-serien på laptops, eftersom de använder desktop-kretsar där numera.

Skrivet av Aleshi:

Jag tror ju också att de vill fortsätta sälja i volym, och måste förnya sig för att kunna göra det. Men som enda spelare i övre halvan av prestandasegmenten så kommer de sälja volym även med rätt höga priser.

Jo, men det är ju som sagt alla som sitter med 9- och 10-serien de ska försöka locka också. Om 2080 kom ut för säg 5500 kr med bortåt 100% prestandaökning mot mitt 980 Ti så skulle jag antagligen åka och köpa ett direkt (även om jag siktar på 2080 Ti egentligen), däremot skulle ett 2080 för 7500 kr börja tangera vad mitt befintliga Ti-kort kostade, vilket definitivt skulle få mig att vänta.

Skrivet av Aleshi:

Förr låg de på 499$ för toppkorten, med 780 gick de upp till 649$. 980 låg på 549$, men skiljde inte mycket från 290X eller 780Ti så det är förklarligt. 1080 kom först för 699$ för Founders Edition som var det enda man kunde få tidigt, 1080 som kom senare hade på pappret 599$, men var i praktiken närmare Founders Edition i pris.

Jag tänker direkt tillbaka till 2007 och på 8800 Ultra som låg på $830, samt 8800 GTX på $650.

Man ska ju även tänka på att 2007 års dollarkurs är väsentligt förändrad mot idag och man får skriva upp kursen med 22%, så priserna var motsvarande $1012 respektive $793, och då sålde de ändå Ultra-kort för uppåt $1000 i dåtidens valutakurs d.v.s. $1220 för samma krets som motsvarade ett *80-har idag.

Den prisutvecklingen har vi ju inte följt som tur är.

Skrivet av Aleshi:

Så, om vi ser till historien, och har det historiskt stora försprånget i åtanke, så tror jag att 599$ är lite lågt. Tror mer på 649$ eller 699$. Och säger inte att det är omöjligt med högre pris.

Jag är mest orolig över att det svenska priset kommer vara översatt med en extremt dålig dollarkurs, typ 13:1.

Permalänk
Medlem
Skrivet av Sveklockarn:

Mycket lustigt.

2080 kommer antagligen ha MSRP $599 eller lägre. Vad det blir i SEK kan man ju bara spå i sillaspad om.

Det där var priserna för Quatro som fokuserar på tyngre 3D rendering. Vad priserna bli för Geforce återstår att se. Dock kan jag med säkerhet säga att det varken blir $10000 eller $6300. Men med Nvidias dominans just nu så tvivlar jag på att det blir $599 för 2080. De kommer nog testa att pressa priserna så högt de kan, och jag blir inte förvånad om MSRP hamnar på $799 för 2080 och $599 för 2070. Detta enbart för att de kan ta dessa priser då konkurrensen från AMD är väldigt svag.

Visa signatur

Intel i5 12600K | Asus TUF Gaming Z690-Plus D4 | Asus Geforce RTX 3060 Ti | 32 GB DDR4 | Fractal Design North | Corsair iCue Link H100i | Cooler Master V750 Gold i Multi

Permalänk
Medlem
Skrivet av Gender Bender:

Det där var priserna för Quatro som fokuserar på tyngre 3D rendering.

Åh nej, jag hade otur när jag läste.

Skrivet av Gender Bender:

Vad priserna bli för Geforce återstår att se. Dock kan jag med säkerhet säga att det varken blir $10000 eller $6300. Men med Nvidias dominans just nu så tvivlar jag på att det blir $599 för 2080. De kommer nog testa att pressa priserna så högt de kan, och jag blir inte förvånad om MSRP hamnar på $799 för 2080 och $599 för 2070. Detta enbart för att de kan ta dessa priser då konkurrensen från AMD är väldigt svag.

Vad jag skrev ovan, hur de än kommer göra så tror jag att de är mer intresserade av att sälja volymer och öka sin ledning ännu mer än att försöka pungslå kunderna. FE-korten tycker jag inte riktigt är en relevant jämförelse då det är ett specialkort snarare än ett instegskort.

Konkurrensen under 10-serien var ju också svag, och ändå lanserades 1080 med samma MSRP som 980.

Permalänk
Medlem
Skrivet av backfeed:

Och dessutom är det ju bara en rendering. Med raytracing.

Du menar nog strålspårad.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Dunde:

Du menar nog strålspårad.

Skickades från m.sweclockers.com

rejtrejsing

Visa signatur

“Problems that remain persistently insoluble should always be suspected as questions asked in the wrong way.” ― Alan W. Watts

Permalänk
Medlem
Skrivet av warh0g:

rejtrejsing

Röjtröjsäng.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem

mmmmm
Hur mycket pengar får jag en av mina barn?

Visa signatur

My Rig https://classic.prisjakt.nu/list.php?ftg_check=on&exclude_ftg...
Fel av mig! Men sjutton vad snabba ni är på att kommentera vad andra gör och inte gör rätt och fel... :/

Permalänk
Inaktiv
Skrivet av Sveklockarn:

Jag menar som i aspekten "det finns ingen fri lunch".
AMD skulle säkert kunna få använda G-Sync mot en nätt licenskostnad, men ingen av dem skulle bedömt ha något intresse av det. Det skulle ju ändå bli likadant med kunder som inte ville betala mer för skärmen, och inte ha någon nytta av sitt G-Sync-stöd. Att Nvidia inte tjänar sina pengar på själva G-Sync-hårdvaran i skärmar är väl också ganska klart vid det här laget, med tanke på hur relativt lite det skiljer i konsumentled.

G-Sync har ju diskuterats i många andra trådar, men styrkan i att den är proprietär är just att det funkar exakt som Nvidia har tänkt. Sen har ju G-Sync genomgående varit bättre, även om Freesync tydligen lyckats komma ikapp på många områden gällande frekvensspann de fungerar inom osv.

Det blir ju fortfarande så att något som ska skickas med på köpet antingen måste betalas med marginalerna och/eller kommer att bli ett sämre alternativ än något man betalar extra för.

Vad menar du att skiljer väldigt lite mellan konsumentled?

Permalänk
Medlem
Skrivet av anon114264:

Vad menar du att skiljer väldigt lite mellan konsumentled?

G-Sync tycks göra skärmar max 1500 kr dyrare i konsumentled i Sverige, t.ex. AOC G2460PF (utan G-Sync för ca 2,6 k) versus AOC G2460PG (med G-Sync för ca 3,9k), vilket tyder på att kostnaden i producentled sannolikt är ganska liten samtidigt som G-Sync-modulen är en förhållandevis avancerad historia.

Samma prisförhållande rådde mellan Asus MG279Q och PG279Q, och idag skiljer det 1200 kr med/utan G-Sync.

Jag gissar att G-Sync-modulerna är en loss leader, d.v.s. man säljer dem nära plus-minus-noll men tjänar andra syften (t.ex. kunder som sänker pengar i entusiastskärmar som de inte är lika benägna att byta ut).

Permalänk
Quizmaster Malmö 22

Ja snackade om strålspårning med en kompis för på Radeon 9700 tiden. Först NU(!) har det kommit hårdvarustöd för det....

Priserna kommer ju (konsumentkirt nu) bli rekordhöga....tippar på att de höjer 2060 typ 500:-, 2070 1000:- o 2080 ca 2000.

Visa signatur

[Gigabyte EP35-DS4][Intel Core 2 Duo E8400 3.0 Ghz][2x2GB Corsair XMS 2][Gainward GTX 570][Sandisk Extreme II 480GB][Corsair HX 620W][Fractal Design Define XL R4][Acer GD245HQBID]

Permalänk
Medlem

Vafan, 9 000 kr för 280 och upp till 15 000 kr för 280Ti, nu har man inte längre råd med att ligga och sniffa på toppen. Blir att ligga kvar på föregående generation många år till.

Visa signatur

[AMD Ryzen 9 3900X] [ASUS GeForce RTX 2080 Ti] [LG OLED 55 C9 som skärm] [Samsung HW-Q96R till ljudet]