Geforce RTX 4070 kapar effektuttag och pris

Permalänk
Medlem
Skrivet av pa1983:

Top of the line i dag är väl snarare rätt billig för 799 USD för AMDs senaste 7950X3D och där är det ju I/O die, 2st cpu chiplets och en 3DV cache chiplet.

Eftersom jag inte har någon koll alls på hur 3D cache påverkar tillverkningskostnaden eller transistorantalet så vågar jag inte kommentera det, Men 7950X har inte ens hälften så många transistorer som 4070ti, och chiplet design. Så sett till wafer kostnad (och inte minst tillverkningskostnad för hela produkten) så ser jag inte hur man kan vara emot det ena men inte det andra. Jag får inte ihop det helt enkelt.

Och vi behöver inte ens blanda in nvidia här, jämför man lite på RDNA2 produkter med Zen3 high-end modeller så ser man rätt snabbt hur enormt mycket högre marginaler dom CPUerna måste ha. Och det finns liksom en anledning varför det inte trillade in speciellt mycket med RDNA2-kort när det var kapacitetbrist vid lansering.

Citat:

Hardware Unbox, Gamers Nexus med flera har redan skötet hål på wafer priser som argument som du rantar om.

Istället för att säga att mitt inlägg är en rant så får du gärna istället lägga fram dessa motargument, svårt att ta ställning annars.

Och om vi ska använda någon form av appeal to authority urgementaion så tar Ian Cutress upp precis det jag försöker poängtera här (från 2:25-4:08, dock är hela videon väldigt intressant om man är intresserad av halvledertillverkning och kostnad).

Citat:

Om nu 5 och 7nm noderna är så dyra, VARFÖR kostar inte processorer mer i dag än för 10 eller 20 år sedan sett till sin prestanda klass? Top of the line i dag är väl snarare rätt billig för 799 USD för AMDs senaste 7950X3D och där är det ju I/O die, 2st cpu chiplets och en 3DV cache chiplet.
Processorerna använder samma noder som GPU'erna, trotts det ser vi igen nämvärd höjning på CPU priserna.

För att alla cpuer har inte skalat transistorökningen i samma takt; Första generationen Ryzen kom samtidigt som pascal, en 8C Ryzen CPU har ökat transistorantalet med ungefär 2x samtidigt som dom har behållt sin prisbild, AD104 har 3x så många som som t ex GP102.

Permalänk
Medlem
Skrivet av Dinoman:

Bra poäng. Här är listan juster efter inflation och storlek på kisel, sen ingår många fler komponenter i ett grafikkort vilket rimligtvis också har ökat. TSMC har ökat sina produktionskostnader och hela värdekedjan har troligen blivit dyrare i snitt. Men, här kommer det justerat för inflation, i USA och dagens pengar i parantes.

9600 GT - 179$ / (254$) / 240 mm²
GTX 260 - 449$ / (617$) / 576 mm²
GTX 470 - 349$ / (479$) / 529 mm²
GTX 570 - 349$ / (479$) / 520 mm²
GTX 670 - 399$ / (522$) / 295 mm²
GTX 770 - 399$ / (515$) / 294 mm²
GTX 970 - 329$ / (416$) / 398 mm²
GTX 1070 - 379$ / (473$) / 314 mm²
RTX 2070 - 499$ / (594$) / 445 mm²
RTX 2070S - 499$ / (586$) / 545 mm²
RTX 3070 - 499$ / (547$) / 392 mm²
RTX 4070 - 599$ / (599$) / 295 mm²

Det du missar här är om man använt hela chippet eller inte. I de allra flesta fall så är x70 ett kraftigt nedkapat chip där x80 är den kompletta modellen. Undantagen är 770, 2070, 2070S och 3070 . Om du vill göra en sådan här jämförelse är det bättre att ta till kompletta chip i varje fall, annars blir dimensionerna på chippen meningslösa.

Citat:

Tittar vi ser vi att 2000-serien var chunky-bois eftersom nu så användes stora delar av kislet till RT-kärnor samt Tensor-kärnor.

Det är nog främst svenska kronan som ställer till det allra värst för oss här i Sverige även om det är historiskt högt pris för en sådan liten kärna. Speciellt med RTX 2070 Super i bakhuvudet som kostade lika mycket men nästan är dubbelt så stor.

GTX 670 och GTX 770 var senast vi fick betalar så öronbedövande mycket pengar för så lite kisel senast. Det var också en period då ATi/AMD inte var särskilt konkurrenskraftiga.

Så var det verkligen inte. 670 var Nvidia som skulle kontra AMDs 7970 och 7950, där Nvidia togs på sängen och bara hade gamla 500-serien att sälja i ett par månader innan de papperslanserade 670 och 680. Detta var tvärtom en period när AMD konkurrerade bra. Nvidia tog bra betalt för korten beroende på att AMD lanserade först, och de satte sina priser efter vad AMD tog ut - 670 kostade $400 för att 7950 kostade $450. 770 var en "refresh", egentligen bara en omdöpt 680, och Nvidia tvingades att sänka priset på den när AMD hade uppdaterat (från $400 till $330).

Om du vill ha en generation där Nvidia tog betalt efter att det inte fanns någon konkurrens, så titta på Ampere, 2000-serien. När AMD till slut kom med första RDNA kapade Nvidia snabbt priserna (genom att döpa om kort, 2070 Super är egentligen bara 2080 till ett lägre pris osv).

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av Ceji:

Raytracing är Nvidias hittepå för att få folk att köpa nya kort. Idag är det för dåligt för att vara en feature, vad Nvidia än försöker intala alla. Detta kort borde kosta ca 4000 svenska kronor i en normal marknad med konkurrens, men det kan vi drömma om. och därför kommer konsollerna så småningom krossa pc-spelsmarknaden. Intel lyckades ha monopol utan att döda marknaden med ockerhöjningar. Nvidia är tyvärr inte lika smarta. Vänta och se hur Nvidia (med lite hjälp från AMD) gräver sin egen grav!

Du menar väl PC-gamingens grav. Nvidia klarar sig fint på inkomsterna från data centers (AI, etc.). AMD har ju konsolmarknaden än så länge. Nä du, det är vi PC-gamers som kommer få stryka på foten i första hand.

Permalänk
Medlem
Skrivet av GuessWho:

Men bortsett från priserna. Vad är det som är så dåligt med Ada Lovelace?

Visste inte att nån hade sagt att 4090 var dålig?

Men det är inget fel på korten under heller, förutom möjligen att man önskar mer minne (bredare buss) i en del av dem.

Permalänk
Medlem

...

OT raderat /Kent
Permalänk
Medlem
Skrivet av underd0g76:

Du menar väl PC-gamingens grav. Nvidia klarar sig fint på inkomsterna från data centers (AI, etc.). AMD har ju konsolmarknaden än så länge. Nä du, det är vi PC-gamers som kommer få stryka på foten i första hand.

Stämmer ju på så sätt. Men tror inte de vill förlora PC-marknaden ändå om de får välja. Även om de verkar bete sig åt det dumsnåla hållet.

För att göra en biljämförelse är ju PC-marknaden egentligen de som hoppar på nya spännande koncept och satsar sina pengar (pga entusiaster/nyfikna/mycket pengar). Konsollmarknaden är nog stadig inkomst, och stabil, för tror inte de är så "utåtsvävande" som hoppar på nya saker. Flesta fortsätter nog på den konsollkarriär de börjat, vare sig det är MS eller Sony eller Nintendo, oavsett prestanda, finns ju givetvis de som byter mellan generationerna. Men det är nog rätt låg %. Huvuddelen är nog inte så insatt eller brydd i prestandasiffror.

Så för att fortsätta biljämförelsen så är det väl lite som att konsoller är standard Volvo 140/240/740 , Du vet vad du får.
Medans PC-marknaden satsar på sport/turbo/6-cylindriga versionerna.

Må det bära eller brista, men banar ju ändå väg för Svenssons i slutändan och företaget får betalt för sina utsvävningar och får feedback till nästa projekt.

Visa signatur

Snälla, kan SweC sluta låtsas vara en Youtube-kanal och återgå till en riktig hårdvaru- sida/forum där man får ordentlig information i text.

Permalänk
Medlem
Skrivet av GuessWho:

Om folk inte har råd att äta varje dag eller äta sämre/för lite är ett större problem än att inte kunna köra spel i 144 FPS.

Nähä?
Så vad du säger är att vi borde diskutera purjolökar istället för buss-bredder?

Permalänk
Medlem
Skrivet av Kotan:

Stämmer ju på så sätt. Men tror inte de vill förlora PC-marknaden ändå om de får välja. Även om de verkar bete sig åt det dumsnåla hållet.

För att göra en biljämförelse är ju PC-marknaden egentligen de som hoppar på nya spännande koncept och satsar sina pengar (pga entusiaster/nyfikna/mycket pengar). Konsollmarknaden är nog stadig inkomst, och stabil, för tror inte de är så "utåtsvävande" som hoppar på nya saker. Flesta fortsätter nog på den konsollkarriär de börjat, vare sig det är MS eller Sony eller Nintendo, oavsett prestanda, finns ju givetvis de som byter mellan generationerna. Men det är nog rätt låg %. Huvuddelen är nog inte så insatt eller brydd i prestandasiffror.

Så för att fortsätta biljämförelsen så är det väl lite som att konsoller är standard Volvo 140/240/740 , Du vet vad du får.
Medans PC-marknaden satsar på sport/turbo/6-cylindriga versionerna.

Må det bära eller brista, men banar ju ändå väg för Svenssons i slutändan och företaget får betalt för sina utsvävningar och får feedback till nästa projekt.

Problemet med biljämförelsen, även om den stämmer, är att det bara kommer vara ICA-handlarna entusiaster som köper Ferrari PC. Förmodligen ingen jättestor marknad att utveckla eller ens konvertera spel till.

Permalänk
Hedersmedlem

*Uppmaning*

Sidospår om matpriser o.d. undanbedes

Visa signatur

Danskjävel så krattar som en skrivare...

Permalänk
Moderator
Testpilot
Skrivet av mpat:

Det du missar här är om man använt hela chippet eller inte. I de allra flesta fall så är x70 ett kraftigt nedkapat chip där x80 är den kompletta modellen. Undantagen är 770, 2070, 2070S och 3070 . Om du vill göra en sådan här jämförelse är det bättre att ta till kompletta chip i varje fall, annars blir dimensionerna på chippen meningslösa.

Nej där har du fel. Storleken på chippet och antalet defekter per wafer är det som avgöra kostnaden i stora delar. Hur mycket av chippet som är avstängt på grund av defekter är helt orelevant, det är ett sätt att sänka kostnaden för hela produktstacken men det har ingen som helst påverkan på kostnaden av det individuella chippet då det är ytan av en wafer som avgöra kostnaden. Så stora chipp är alltid dyrare än små. Det är hela anledningen till att AMD och Nvidia samt troligen snart också Intel har börjat med chipletdesign. För att kunna skala prestanda utan att behöva öka ytan på ett monolitiskt chipp.

Citat:

Så var det verkligen inte. 670 var Nvidia som skulle kontra AMDs 7970 och 7950, där Nvidia togs på sängen och bara hade gamla 500-serien att sälja i ett par månader innan de papperslanserade 670 och 680. Detta var tvärtom en period när AMD konkurrerade bra. Nvidia tog bra betalt för korten beroende på att AMD lanserade först, och de satte sina priser efter vad AMD tog ut - 670 kostade $400 för att 7950 kostade $450. 770 var en "refresh", egentligen bara en omdöpt 680, och Nvidia tvingades att sänka priset på den när AMD hade uppdaterat (från $400 till $330).

Om du vill ha en generation där Nvidia tog betalt efter att det inte fanns någon konkurrens, så titta på Ampere, 2000-serien. När AMD till slut kom med första RDNA kapade Nvidia snabbt priserna (genom att döpa om kort, 2070 Super är egentligen bara 2080 till ett lägre pris osv).

När Nvidia skapade Kepler så var det första gången som man brandade 104-kärnan som 70- och 80-serien, tidigare hade alltid 110-kärnan varit avsedd för 80- och 70-serien. Kepler var så välpresterande att Nvidia inte ens behövde använda sig av den största kärnan i familjen för att vara konkurrenskraftiga, de skapade då ett nytt segment - Halo-produkt i from av GTX Titan, som var så långt före konkurrensen att det var svårt att fatta. Nvidia togs knappast på sängen med tanke på att de lanserade GTX Titan (GK110) i Feb 2012 och HD7970 kom Dec 2011. Sen angående papperslanseringar så minns jag inte exakt hur det var men det skedde i båda lägerna allt som oftast men där har du kanske rätt.

Cirka ett år senare kom GK110 igen i form av GTX 780 så Nvidia använde sin största kärna för 80-serien för att konkurrera med AMD's bästa och som du nämner så återanvände man sig av GK104 till GTX 770 vilket är precis så man gjort innan men det var ingen refresh att tala om då den hade något snabbare base clock och snabbare minne. 600-serien samt 700-serien är baserad på samma generation i form av Kepler, mycket framgångsrik arkitektur. Det var också här som Nvidia började att dra ifrån AMD. 600-serien blev helt enkelt bara ett stop-gap för att AMD inte hade något bättre att komma med. Maxwell fortsatte sedan att bygga på framgången med Kepler och sen kom Pascal och resten är historia.

Det är först när Ampere kom till marknaden som Nvidia återigen använde sin största kärna för ett 80-seriekort (icke TI) i och med GA102. Vilket också är anledningen till att den blev så uppskattad tror jag, för återigen fick vi riktigt bra prestanda för en hyfsat överkomlig peng, om vi bortser från kryptotokerierna. Anledningen till detta är 100% på grund av att AMD hade något vettigt på händerna i och med RDNA2 och Nvidia visste detta annars är jag övertygad om att vi hade sett ett 3080 baserat på GA104 det som sedemera blev 3070 och 3070 Ti.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av Dinoman:

Nej där har du fel. Storleken på chippet och antalet defekter per wafer är det som avgöra kostnaden i stora delar. Hur mycket av chippet som är avstängt på grund av defekter är helt orelevant, det är ett sätt att sänka kostnaden för hela produktstacken men det har ingen som helst påverkan på kostnaden av det individuella chippet då det är ytan av en wafer som avgöra kostnaden. Så stora chipp är alltid dyrare än små. Det är hela anledningen till att AMD och Nvidia samt troligen snart också Intel har börjat med chipletdesign. För att kunna skala prestanda utan att behöva öka ytan på ett monolitiskt chipp.

Tack jag vet varför man stänger av delar av ett chip och vad det är som kostar, men Nvidia stänger inte av 25% av ett chip för att de har så stora defekter. De stänger av så mycket som de vill för att få en lagom stack med jämna mellanrum mellan chippen. Nvidia säljer massor av chip med mer eller mindre avstängt under andra namn till OEMer, och om de behöver göra ett nytt chip för att täcka ett hål (som 1070 Ti) så kan de lätt göra det genom att stänga av lite mindre.

Att bara göra en tabell med chipstorlek och pris blir alltid missvisande om du inte tar den största konfiggen på varje chip. Det går absolut att göra, det blir bara inte x70 varje gång.

Citat:

När Nvidia skapade Kepler så var det första gången som man brandade 104-kärnan som 70- och 80-serien, tidigare hade alltid 110-kärnan varit avsedd för 80- och 70-serien.

En enda gång hade det hänt att GX110 hade använts till x70 och x80, och det var 500-serien närmast innan (GF110). Ytterligare en gång hade man använt GF100, det var 400-serien. 200-serien använde GT200 till allt från 260 och uppåt.

Jag tror att du har missat hur man läser ut namnen. Logiken med de två första siffrorna är att de är ett versionsnummer. GK104 innebär att chippet tillhör "Kepler 1.0", medan GK110 är "Kepler 1.1". Nvidia gör absolut inte alla chip varje gång, men de följer fortfarande det temat. Fermi är det enklaste exemplet, där gjorde de 1.1 av allt för 500-serien.

Detta kanske ser ut som att jag bara är en petimäter för sakens skull, men jag tror att detta är grundfelet som du gör i ditt antagande, vilket leder till nästa fel.

Citat:

Kepler var så välpresterande att Nvidia inte ens behövde använda sig av den största kärnan i familjen för att vara konkurrenskraftiga, de skapade då ett nytt segment - Halo-produkt i from av GTX Titan, som var så långt före konkurrensen att det var svårt att fatta. Nvidia togs knappast på sängen med tanke på att de lanserade GTX Titan (GK110) i Feb 2012 och HD7970 kom Dec 2011.

Nej, de lanserade GTX Titan/GK110 i februari 2013, och 780 i maj samma år. Det var nästa generation - det var bara det att de ställde in GK114 och GK116. Källa på datumen om du inte tror mig:

https://www.anandtech.com/show/6973/nvidia-geforce-gtx-780-re...
https://www.anandtech.com/show/6760/nvidias-geforce-gtx-titan...

Att Titan slog det 15 månader gamla 7970 är inte så konstigt. Dess verkliga konkurrent var 290X, som kom 8 månader senare.

Nvidia gjorde helt enkelt inget topp-kort i Kepler 1.0, men det är klart att de designade GK104 för att mäta sig med Tahiti (7970). Man drog sig för att göra chip större än 300mm2 eftersom det var en ny process (28nm). Nvidia hade tidigare alltid varit långsamma på nya processer, men med 28nm ville de vara lika snabba som AMD. Då blev beslutet att skjuta på det största beräkningskortet.

Citat:

Det är först när Ampere kom till marknaden som Nvidia återigen använde sin största kärna för ett 80-seriekort (icke TI) i och med GA102. Vilket också är anledningen till att den blev så uppskattad tror jag, för återigen fick vi riktigt bra prestanda för en hyfsat överkomlig peng, om vi bortser från kryptotokerierna. Anledningen till detta är 100% på grund av att AMD hade något vettigt på händerna i och med RDNA2 och Nvidia visste detta annars är jag övertygad om att vi hade sett ett 3080 baserat på GA104 det som sedemera blev 3070 och 3070 Ti.

Alltså, nej...

Den största kärnan Nvidia gör slutar på 0. Den är alltid speciell som ett beräkningskort (bättre FP64-prestanda bland annat) och har med tiden blivit allt mer specialiserad. GK110 är ett steg på vägen, där den inte är identisk med övriga Kepler men ändå ganska lik. Den följdes av Maxwell GM200 - 980 Ti och Titan XP - innan det var slut med 100-kärnor i de vanliga familjerna. Nästa 100-kärna heter inte GP100 utan GV100 - Volta (AKA Titan V) eftersom den familjen då avviker så mycket att Nvidia vill ge den ett eget namn. Istället finns GP102, som är 1080Ti, och även TU102 (Titan RTX/2080 Ti) och GA102 (3080 och allt ovanför). Volta har sedan dess följts av Hopper, enligt samma princip.

Att Nvidia valde att använda GA102 till 3080 är kanske lite intressant (MLID har en teori om att det skulle ha varit GA103, men att Samsung hade sådana massiva problem med yielden att de helt enkelt hade en massa GA102-chip med mängder med fel), men jämför inte ett "0-chip" med ett "2-chip". "2-chip" är en stor, vanlig GPU. "0-chip" är beräkningschip som också går (eller gick) att köra lite spel på.

Visa signatur

5900X | 6700XT

Permalänk
Avstängd
Skrivet av hockexx:

8GB på 3070 när jag köpte det för 7190kr.. Hade tur att ens få tag på ett sådant (3070 TUF) för det priset under den rushen då allt var slut och denna dök upp på Webhallen, klickade hem direkt. Sämsta kort jag köpt även om det klockade jävligt bra.
Utöver att man fick slut på minne så gick det inte att surfa på andra monitorn medan man spelade DX12-spel, stutter-fest deluxe. Verkade vara den enda med det problemet. Alla andra verkade ha problem i spelet med DX12, försvann efter att jag bytte till AMD.
Testade ALLT innan..

Får ligga i en låda och agera backup nu. Sålt för många backups och GTX 1060 3GB duger inte som backup.

Låter som ditt os hade problem. Haft 3070 själv och kunde spela dx12 spel samtidigt som jag gjorde annat på 2 skärmar.

Permalänk
Moderator
Testpilot
Skrivet av mpat:

Tack jag vet varför man stänger av delar av ett chip och vad det är som kostar, men Nvidia stänger inte av 25% av ett chip för att de har så stora defekter. De stänger av så mycket som de vill för att få en lagom stack med jämna mellanrum mellan chippen. Nvidia säljer massor av chip med mer eller mindre avstängt under andra namn till OEMer, och om de behöver göra ett nytt chip för att täcka ett hål (som 1070 Ti) så kan de lätt göra det genom att stänga av lite mindre.

Att bara göra en tabell med chipstorlek och pris blir alltid missvisande om du inte tar den största konfiggen på varje chip. Det går absolut att göra, det blir bara inte x70 varje gång.

En enda gång hade det hänt att GX110 hade använts till x70 och x80, och det var 500-serien närmast innan (GF110). Ytterligare en gång hade man använt GF100, det var 400-serien. 200-serien använde GT200 till allt från 260 och uppåt.

Jag tror att du har missat hur man läser ut namnen. Logiken med de två första siffrorna är att de är ett versionsnummer. GK104 innebär att chippet tillhör "Kepler 1.0", medan GK110 är "Kepler 1.1". Nvidia gör absolut inte alla chip varje gång, men de följer fortfarande det temat. Fermi är det enklaste exemplet, där gjorde de 1.1 av allt för 500-serien.

Detta kanske ser ut som att jag bara är en petimäter för sakens skull, men jag tror att detta är grundfelet som du gör i ditt antagande, vilket leder till nästa fel.

Nej, de lanserade GTX Titan/GK110 i februari 2013, och 780 i maj samma år. Det var nästa generation - det var bara det att de ställde in GK114 och GK116. Källa på datumen om du inte tror mig:

https://www.anandtech.com/show/6973/nvidia-geforce-gtx-780-re...
https://www.anandtech.com/show/6760/nvidias-geforce-gtx-titan...

Att Titan slog det 15 månader gamla 7970 är inte så konstigt. Dess verkliga konkurrent var 290X, som kom 8 månader senare.

Nvidia gjorde helt enkelt inget topp-kort i Kepler 1.0, men det är klart att de designade GK104 för att mäta sig med Tahiti (7970). Man drog sig för att göra chip större än 300mm2 eftersom det var en ny process (28nm). Nvidia hade tidigare alltid varit långsamma på nya processer, men med 28nm ville de vara lika snabba som AMD. Då blev beslutet att skjuta på det största beräkningskortet.

Alltså, nej...

Den största kärnan Nvidia gör slutar på 0. Den är alltid speciell som ett beräkningskort (bättre FP64-prestanda bland annat) och har med tiden blivit allt mer specialiserad. GK110 är ett steg på vägen, där den inte är identisk med övriga Kepler men ändå ganska lik. Den följdes av Maxwell GM200 - 980 Ti och Titan XP - innan det var slut med 100-kärnor i de vanliga familjerna. Nästa 100-kärna heter inte GP100 utan GV100 - Volta (AKA Titan V) eftersom den familjen då avviker så mycket att Nvidia vill ge den ett eget namn. Istället finns GP102, som är 1080Ti, och även TU102 (Titan RTX/2080 Ti) och GA102 (3080 och allt ovanför). Volta har sedan dess följts av Hopper, enligt samma princip.

Att Nvidia valde att använda GA102 till 3080 är kanske lite intressant (MLID har en teori om att det skulle ha varit GA103, men att Samsung hade sådana massiva problem med yielden att de helt enkelt hade en massa GA102-chip med mängder med fel), men jämför inte ett "0-chip" med ett "2-chip". "2-chip" är en stor, vanlig GPU. "0-chip" är beräkningschip som också går (eller gick) att köra lite spel på.

Du är onekligen väldigt petig med semantiken och jag tror du förstod alldeles utmärkt vad jag menade. Givetvis har saker och ting utvecklat sig hos Nvidia och 100, 110, 200 med mera är deras största kärnor och tidigare var de både till deras proffesionella serie likväl som deras konsument line-up. Det ändrades med Volta, absolut och blev istället 102 på konsumentsidan men jag är övertygad om att du förstår vad jag menade.

Min grundpoäng kvarstår och min lista som jag producerade är också helt korrekt och jag vet inte längre vad det är som du är ute efter att argumentera om.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

Jag gissar på att nVidia släpper x0x0 namnen med nästa generation.
Efter allt sk*t dom fått över prissättning då "alla" tycker att t.e.x x070 varianterna bara får kosta samma som en 10 år gammal variant gjorde.

Nya namn löser problemet.
Så länge dom är smarta nog att även ändra beteckningen på själva chippet.

Permalänk
Medlem
Skrivet av Svensktiger:

Jag gissar på att nVidia släpper x0x0 namnen med nästa generation.
Efter allt sk*t dom fått över prissättning då "alla" tycker att t.e.x x070 varianterna bara får kosta samma som en 10 år gammal variant gjorde.

Nya namn löser problemet.
Så länge dom är smarta nog att även ändra beteckningen på själva chippet.

Så länge inte prestanda per krona ökar så kommer det inte hjälpa någonting.

Permalänk
Medlem
Skrivet av Nozomi:

Låter som ditt os hade problem. Haft 3070 själv och kunde spela dx12 spel samtidigt som jag gjorde annat på 2 skärmar.

Jag är fullt medveten om att det fungerat för 99.9% av alla som kört och eller kör RTX 3070, annars hade jag nog löst det med hjälp av andra.

Dock så fungerar klockrent med samma installation med 7900XTX. Något i min dator lirade helt enkelt inte med kortet.
Kortet i sig fungerar bra i övrigt, men det var alldeles för klent för 1440P 144Hz. För 1440P 60Hz duger det fint i några år till med relativt bra grafik, garanterat. Dessa 8GB kommer åldras mycket fortare än även jag trodde när jag köpte kortet, det garanterat jag.

Att folk har haft problem med stutter i DX12 är inget nytt. Det som var väldigt udda var att det skedde på videos/webbläsaren i bakgrunden medan spelen flöt kanon för mig.

Jag testade att sätta 60Hz på båda skärmarna, samma upplösning, duplicera istället för utvidga och så vidare. Jag fick aldrig till det. Med "stutterfest deluxe och "gick inte att surfa"" överdriver jag givetvis en hel del, men jag kunde ha en fördröjning på 0.5 sekunder+ på att bara skrolla i webbläsaren om jag hade ett DX12-spel igång samtidigt. Firefox/Chrome/Edge, samma. Testade utan HW-acceleration, fan I MIG allt.

För mig var det utan tvekan den sämsta upplevelse (förutom prestandaklivet då från 1080) jag haft gällande en GPU. Då räknar jag med mitt gamla HD4770 som började visa prickar likt artefakter helt random vid surf (syndes även på print-screens) som jag till slut löste men minns inte hur. Men det tog ett tag, det gjorde det. Det kortet kostade mig dock runt 900kr nytt.

Jag har kvar kortet och tänker sätta det i min gäst-dator som folk kan använda om de vill komma över och lira lite spel. Jag tror inte jag kommer stöta på samma problem där

Oavsett, jag står kvar vid att VRAM-behovet kommer att öka drastiskt framöver. Tyvärr.

Visa signatur

Ryzen 5900X | 32GB G.Skill CL14 3866MT/s | 7900 XTX | Asus Strix X470-F

Permalänk
Medlem
Skrivet av Dinoman:

Min grundpoäng kvarstår och min lista som jag producerade är också helt korrekt och jag vet inte längre vad det är som du är ute efter att argumentera om.

1) Att det är missvisande att göra en lista med pris mot storlek på chip när man i den fall använder hela chippet och i andra fall inte gör det.
2) Beskrivningen av att 2012 var en period när AMD inte var speciellt konkurrenskraftiga

Den sista kan vi kanske släppa. Om du nu trodde att första Titan kom i februari 2012 i stället för 2013 så kanske det förklarar varför du tyckte det.

Visa signatur

5900X | 6700XT