Premiär! Fyndchans i SweClockers Månadens Drop

Nvidia: "Moores lag är död"

Permalänk

Jag tänker aldrig betala mer än 6000 kronor för ultrainställningar och 90+ fps prestanda i 1080 upplösning senaste spelet.

Permalänk
Medlem
Skrivet av Whitepilledoomer:

Jag tänker aldrig betala mer än 6000 kronor för ultrainställningar och 90+ fps prestanda i 1080 upplösning senaste spelet.

Vad är du villig att betala för 4k+ 90+fps då?

Visa signatur

Corsair 5000D | PRIME X670E-PRO | 7800X3D |
Kingston Fury Beast DDR5 2x16GB @6000MT/s CL30-40-40-28 | TUF RTX 4090 | 2 * 2TB WD Black SN850X PCI-E 4 |

Permalänk
Medlem

Min köpkraft är död och min plånbok likgiltig över denna lansering! 😐

Permalänk
Medlem
Skrivet av ipac:

"momspåslaget som EU hittat på"?

Undrade över det också. Momsen är inte universal i EU. Exempel.. momsen i Tyskland ligger på 15-19%. I Sverige 25% på de flesta varor och tjänster. Spanien ökade sin VAT (Medvärdesskatt aka moms) från 18-21% för typ ett år sedan. Luxembourg har 17% medan Ungern har 27%.

Den första svenska skatt som senare skulle bli det som idag kallades moms har rötter i 1920-talets Sverige. Med andra ord.. Närmare 20-25 år innan EU grundades. Så hur "Momspåslaget" skulle vara något EU hittat på kan man verkligen undra.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Skrivet av jeppe109:

Vad är du villig att betala för 4k+ 90+fps då?

Inget jag bryr mig om personligen, så inget! >:)

Permalänk
Medlem

Sen tjänar nvidia runt 70% per kort mot tillverkarna som gör nvidia kort som tex asus gigabyte som tjänar runt 10% per kort. Nä vi måste tjäna mer för Jensen lär ha en ny skinnjacka

Permalänk
Inaktiv

Det är omöjligt med dubbel prestanda men går bra att ta dubbel peng

Permalänk
Medlem
Skrivet av Whitepilledoomer:

Jag tänker aldrig betala mer än 6000 kronor för ultrainställningar och 90+ fps prestanda i 1080 upplösning senaste spelet.

OK, då vet vi. I tråden skrivs det som om Nvidia skulle behöva starta något liknande Radiohjälpen för underbetalda svenska gamers, "Grafikkortshjälpen" kanske?

Permalänk
Skrivet av Dunde:

OK, då vet vi. I tråden skrivs det som om Nvidia skulle behöva starta något liknande Radiohjälpen för underbetalda svenska gamers, "Grafikkortshjälpen" kanske?

Som tur är spelar jag främst WoW och Minecraft typ.

Permalänk
Medlem
Skrivet av anon242437:

Det är omöjligt med dubbel prestanda men går bra att ta dubbel peng

"Grollos law", prislappen på GPU:er fördubblas var 18e månad.

Permalänk
Inaktiv
Skrivet av ipac:

"Grollos law", prislappen på GPU:er fördubblas var 18e månad.

Jag var taggad på 4000-serien att få uppgradera från mitt 2070 sen köpte jag ett 3070Ti för 6000 kr och känner mig nöjd med det.

Permalänk
Medlem
Skrivet av Dunde:

OK, då vet vi. I tråden skrivs det som om Nvidia skulle behöva starta något liknande Radiohjälpen för underbetalda svenska gamers, "Grafikkortshjälpen" kanske?

Fint att du är ett levande plakat för "Där pengarna går in går vettet ut" så din åsikt är precis lika värdelös som den du försöker klanka ner på. Det är för övrigt helt gratis att klappa igen.

Permalänk
Medlem
Skrivet av anon242437:

Jag var taggad på 4000-serien att få uppgradera från mitt 2070 sen köpte jag ett 3070Ti för 6000 kr och känner mig nöjd med det.

Det gjorde du alltså efter att 40 hade presenterats?

Permalänk
Inaktiv
Skrivet av ipac:

Det gjorde du alltså efter att 40 hade presenterats?

Nej för typ 3-4 veckor sedan men kunde räkna ut med röven att ett 3070ti för 6 lakan skulle vara mer prisvärt än ockerpriserna på 4070 när det väl går att få tag i.

Permalänk
Medlem
Skrivet av anon242437:

Nej för typ 3-4 veckor sedan men kunde räkna ut med röven att ett 3070ti för 6 lakan skulle vara mer prisvärt än ockerpriserna på 4070 när det väl går att få tag i.

Haha, ja.

Men för de som ändå "inväntar vad 40-serien erbjuder, innan jag köper" så har Nvidia nu varit tydliga iaf. Både kunder och Nvidia är överens, köp inte 4080.

Permalänk
Medlem

Granskning av Jensen's påstående:

Permalänk
Medlem
Skrivet av meanh:

Somliga gillar att okritiskt ta till sig allt de hör om prishöjningar från vissa källor, och försvarar sen den åsikten med näbbar och klor, vilket tyvärr är ganska vanligt förekommande här på forumet också.

I Nvidias fall har det ju först och främst skett en rejäl nodkrympning från Samsung 8/10 nm till TSMC N5. Det innebär att varje wafer blir dyrare genom att det är mycket/fler mer jobb, men det är ju också så att antalet chip per wafer också ökar kraftigt. TSMC skryter ju dessutom om att de har över 90% yield på sina senaste processer.

Kopierade detta räkneexempel från Techpowerups forum:
TSMC's latest nodes are very expensive, but AMD's small dies mean that they have low costs. Assuming that TSMC'S N6 costs the same as N7 and applying the 10% increase in 2022 to the prices in 2020, we get a manufacturing cost of US $ 68.21 for the 7950X and $ 45.28 for the 7700X. This doesn't account for packaging and R&D costs. The costs without the 10% increase, assuming a defect density of 0.09 per square cm for both N6 and N5, are below:

Node

Wafer cost

Good dies

Die cost

N6

$9346

460

$20.32

N5

$16988

815

$20.84

Även om kostnaden ökar med 80% så ökar antalet användbara chip med 77%, och det lär vara något liknande det handlar om när det kommer till TSMC N5 och Nvidias chip.

Nvidias prissättning kommer alltså sannolikt mest från marknadens vilja att pantsätta sig för att få ett RTX 30-serien till uppåt dubbla MSRP. Nu fick alla som köpte 30-serien för ockerpriser som de ville...

Permalänk
Medlem
Skrivet av Sveklockarn:

Somliga gillar att okritiskt ta till sig allt de hör om prishöjningar från vissa källor, och försvarar sen den åsikten med näbbar och klor, vilket tyvärr är ganska vanligt förekommande här på forumet också.

I Nvidias fall har det ju först och främst skett en rejäl nodkrympning från Samsung 8/10 nm till TSMC N5. Det innebär att varje wafer blir dyrare genom att det är mycket/fler mer jobb, men det är ju också så att antalet chip per wafer också ökar kraftigt. TSMC skryter ju dessutom om att de har över 90% yield på sina senaste processer.

Kopierade detta räkneexempel från Techpowerups forum:
TSMC's latest nodes are very expensive, but AMD's small dies mean that they have low costs. Assuming that TSMC'S N6 costs the same as N7 and applying the 10% increase in 2022 to the prices in 2020, we get a manufacturing cost of US $ 68.21 for the 7950X and $ 45.28 for the 7700X. This doesn't account for packaging and R&D costs. The costs without the 10% increase, assuming a defect density of 0.09 per square cm for both N6 and N5, are below:

Node

Wafer cost

Good dies

Die cost

N6

$9346

460

$20.32

N5

$16988

815

$20.84

Även om kostnaden ökar med 80% så ökar antalet användbara chip med 77%, och det lär vara något liknande det handlar om när det kommer till TSMC N5 och Nvidias chip.

Nvidias prissättning kommer alltså sannolikt mest från marknadens vilja att pantsätta sig för att få ett RTX 30-serien till uppåt dubbla MSRP. Nu fick alla som köpte 30-serien för ockerpriser som de ville...

De där siffrorna jämför dock dels tsmc 5 vs tsmc 6, men också samma chip på båda. Nvidia kommer ju från Samsung 8 som troligen var sjukt billigt, och nya chippen är ju lika stora på nya noden, alltså nästan tre gånger så stor yta

För Nvidias del tror jag dessa chip är säkerligen 3x eller 4x så dyra (4090 vs 3090) per styck än motsvarande chip från gamla serien

Inte för att det på något vis borde förklara att detta är rimligt, men priserna ökar. Tror dock främst det var 3000-chippen som var billiga

Chippet för ’4080’ 12GB är mindre än hälften så stort som det för 4090, och bör därmed kosta jämförbart med 3090 att tillverka (exponentiellt svårare att göra större chip). Riktiga 4080 med 16GB är bara marginellt större och bör också vara ganska rimligt

Själva chipkostnaden är såklart inte hela kostnaden med F&U och annat, sen är ett helt grafikkort mer än bara chippet i mitten

Permalänk
Medlem
Skrivet av medbor:

Själva chipkostnaden är såklart inte hela kostnaden med F&U och annat, sen är ett helt grafikkort mer än bara chippet i mitten

Så är det absolut, men föregångaren kostade ju också pengar att utveckla, samt att Läder-Jönsen skyllt på dyr tillverkningsteknik som en förklaring till de absurda priserna.

Permalänk
Medlem
Skrivet av Sveklockarn:

Så är det absolut, men föregångaren kostade ju också pengar att utveckla, samt att Läder-Jönsen skyllt på dyr tillverkningsteknik som en förklaring till de absurda priserna.

Ja, och när kretsarna är lika stora (som AD102 och GA102 till exempel i princip är) så ser man ju klart å tydligt med dina egna siffror att det blir betydligt högre tillverkningskostnad. Blir dock svårt att avgöra hur det ser ut för dom två 4080-korten, eftersom vi inte vet hur bra pris nvidia hade hos Samsung, och när det nu visat sig att det sitter en relativt liten krets i 4080 12GB vilket gör det ännu svårare att avgöra hur vida marginalerna har ökats eller inte. Hela ekonomin bakom blir så otroligt komplex att iaf jag vågar inte peka med hela handen i frågan. Dock är jag tämligen säker på att nvidias totala bruttomarginal kommer sjunka kommande året från senaste två åren av räkmacka.

Och det är inte heller som att priset för att förbereda en design för tillverkning är samma för olika noder:

"Handel Jones, CEO of International Business Strategy Corporation (IBS), said: "The average cost of designing a 28nm chip is US$40 million. By comparison, the cost of designing a 7nm chip is US$217 million and the cost of designing a 5nm device is US$416 million. , 3nm design will cost up to 590 million US dollars."

https://min.news/en/tech/def29226dea2b06f47efea4aae13e8f3.htm...

Samsung 8nm var väl i princip en 10nm nod, bara där har du några miljarders skillnad... (nu är det där dock nya priser, 8nm var ju mer "cutting-edge" när 3000-serien togs fram, men det kommer fortfarande vara en väsentlig ökning).

Det kan inte undgå någon som faktiskt orkar titta på hur utvecklingen i halvledarbranchen har sett ut senaste åren för att se att priserna totalt skenar iväg, och att det kommer sätta enorma avtryck i hur hårdvarutvecklingen kommer utspela sig. Men folk verkar inte så intresserade av vad folk i halvledarbranchen har att säga, utan vänder sig till random youtubers för enkla svar på otroligt komplicerade frågor. Ian Cutress är nog den enda kända inom techmedia-sfären som verkar ha nog med branchinsyn för att jag skulle lita på i dom här frågorna, vet inte om han har vägt in än på 4000-seriens prisutveckling?

Permalänk
Medlem
Skrivet av sKRUVARN:

Samsung 8nm var väl i princip en 10nm nod, bara där har du några miljarders skillnad... (nu är det där dock nya priser, 8nm var ju mer "cutting-edge" när 3000-serien togs fram, men det kommer fortfarande vara en väsentlig ökning).

Därav min kommentar om att de nya kretsarna är mindre och att det blir fler per wafer. Tittade precis på GA102/RTX 3080 10 GB (628 mm2) vs AD103/RTX 4080 16 GB (379 mm2). Det hoppet gör att det blir 66% fler dies (89 vs 148) ur en 300 mm wafer.

Jag tvivlar inte på att de nya är dyrare, men jag tvivlar på hur mycket priset påverkar varje enskild die.

Permalänk
Medlem
Skrivet av Sveklockarn:

[b]Därav min kommentar om att de nya kretsarna är mindre och att det blir fler per wafer.

Det beror ju på vilken krets man tittar på, kör 90-korten så är det ju i princip samma storlek som jag skrev.

Citat:

Tittade precis på GA102/RTX 3080 10 GB (628 mm2) vs AD103/RTX 4080 16 GB (379 mm2). Det hoppet gör att det blir 66% fler dies (89 vs 148) ur en 300 mm wafer.

Visst är det så, men frågan är vad den siffran säger oss? Stämmer dina siffror ovan så hade det AD103 kretsen vart dyrare från en 628mm2 krets på 6nm! Och nu pratar vi om en 8nm krets som i princip bara var en förfining av en 10nm nod (TSMC 7nm nod erbjuder runt 40% högre densitet än Samsungs 8nm). Jag skulle nog säga att den nya noden är iaf två gånger så dyr per wafer. Sen tillkommer ju ytterligare komplexitet, t ex i fallet med GA102 så använder kretsen i 3080 bara 80% av CUDA-kärnorna, hur mycket av AD103 används i 4080, och hur påverkar en sådan sak yields?

Citat:

Jag tvivlar inte på att de nya är dyrare, men jag tvivlar på hur mycket priset påverkar varje enskild die.

Fast du kan inte bortse från kostnaden som tillkommer i att ta en design till tillverkning, om det nu kan vara en skillnad i storleksordningen miljarder så kommer det kraftigt påverka tillverkningskostnaden, det är ju en del av kostnaden för tillverkningen och ska ju slås ut på priset för varje krets man säljer. Tittar man på när det räknas på transistorpris för eventuella kretsar så räknar man med den utgiften och så slår man ut det på X antal kretsar man förväntas producera. Jag länkade tidigare i tråden siffror för en sådan uträkning som visar att till och med priset per transistor är högre, och redan AD103 har 60% fler transistorer än GA102.

Alltså om vi kollar på vad Jensen säger i nyheten så säger han säger han inget om att det motsvarar den specifika prisskillnaden för slutkund, utan att helt enkelt att det är bra mycket dyrare nu med att öka transistorantalet på grafikkretsar mot hur det sett ut tidigare, och det påverkar såklart priset. Hur mycket "egentligen"? Ja vem vet...

Permalänk
Medlem
Skrivet av sKRUVARN:

Det beror ju på vilken krets man tittar på, kör 90-korten så är det ju i princip samma storlek som jag skrev.

Också ett dyrare kort, och det är ju lite konstigt att det skiljer så lite i pris när storleken på kretsen gör att man får ut så mycket färre på en wafer, eller vad säger du?

Skrivet av sKRUVARN:

Visst är det så, men frågan är vad den siffran säger oss?

Inte jättemycket om man inte vet kostnaden för wafern, men poängen var att en process med mycket högre densitet har potentialen att även ge många fler kretsar.

Skrivet av sKRUVARN:

Stämmer dina siffror ovan

Jag gjorde det lätt för mig och tog roten ur antalet kvadratmillimeter och stoppade in den siffran på en kvadratisk krets i en Die Per Wafer Calculator (googla!). Den intressanta siffran är den procentuella skillnaden, kan ju vara så att kretsen har en mer rektangulär form som medger en annan stackning och potentiellt någon krets mer per wafer, men det spelar ju ingen roll eftersom jag tog fram den procentuella skillnaden med samma förutsättningar i båda fallen.

Skrivet av sKRUVARN:

så hade det AD103 kretsen vart dyrare från en 628mm2 krets på 6nm! Och nu pratar vi om en 8nm krets som i princip bara var en förfining av en 10nm nod (TSMC 7nm nod erbjuder runt 40% högre densitet än Samsungs 8nm). Jag skulle nog säga att den nya noden är iaf två gånger så dyr per wafer. Sen tillkommer ju ytterligare komplexitet, t ex i fallet med GA102 så använder kretsen i 3080 bara 80% av CUDA-kärnorna, hur mycket av AD103 används i 4080, och hur påverkar en sådan sak yields?

Fysiskt är den mycket mindre på AD103 jämför med GA102, sen är inte CUDA-kärnorna direkt jämförbara mellan generationer som nämnts tidigare. Mellan 20- och 30-serien fick de t.ex. en annan uppbyggnad, där varje plötsligt ansågs vara två CUDA-kärnor, så jag skulle inte bli förvånad om det var något liknande nu. Googla lite på TSMC N5 så hittar du nyheter om vilken yield TSMC marknadsför att de håller på den processen, specifika kunder är nog däremot affärshemligheter.

Skrivet av sKRUVARN:

Fast du kan inte bortse från kostnaden som tillkommer i att ta en design till tillverkning, om det nu kan vara en skillnad i storleksordningen miljarder så kommer det kraftigt påverka tillverkningskostnaden, det är ju en del av kostnaden för tillverkningen och ska ju slås ut på priset för varje krets man säljer. Tittar man på när det räknas på transistorpris för eventuella kretsar så räknar man med den utgiften och så slår man ut det på X antal kretsar man förväntas producera. Jag länkade tidigare i tråden siffror för en sådan uträkning som visar att till och med priset per transistor är högre, och redan AD103 har 60% fler transistorer än GA102.

60% fler transistorer och 66% fler kretsar.

Skrivet av sKRUVARN:

Alltså om vi kollar på vad Jensen säger i nyheten så säger han säger han inget om att det motsvarar den specifika prisskillnaden för slutkund, utan att helt enkelt att det är bra mycket dyrare nu med att öka transistorantalet på grafikkretsar mot hur det sett ut tidigare, och det påverkar såklart priset. Hur mycket "egentligen"? Ja vem vet...

Jag motsäger inte det heller, så har det ju varit även med andra sentida processer att varje wafer blir rejält mycket dyrare att producera. Men ja, det är kvalificerad navelskådning tills någon kommer ut med siffror, vilket känns osannolikt. Jag är fortfarande övertygad om att det som har störst betydelse för prislappen är de kraftiga signaler folk har skickat under försäljningen av RTX 30-serien, i form av att inte bara köpa allt som finns tillgängligt utan även betala saftiga överpriser.

Det vore ju dumt av Nvidia att inte åtminstone försöka sälja efterträdaren till ett rejält premium. Med lite otur för oss vanliga dödliga så köper tillräckligt många de nya korten till begärda priser och etablerar en ny nivå av GPU-priser för framtida generationer.

Permalänk
Medlem
Skrivet av Sveklockarn:

Också ett dyrare kort, och det är ju lite konstigt att det skiljer så lite i pris när storleken på kretsen gör att man får ut så mycket färre på en wafer, eller vad säger du?

Nej det är inte så konstigt, nvidia har inte ett marginalmål som gäller över samtliga produkter. Det kommer skilja sig avsevärt från produkt till produkt, där en kan ha lägre för någon annan har högre osv, hur kretsarna används i datacenter-segmentet kommer också påverka. Allt noga uträcknat för att landa i någon planerad total vinstmarginal. 3090 hade troligen så pass hög marginal att det gick att hålla en liknande prisbild trots dyrare krets, för just kretsen i 4090 kan man nog säga med säkerhet är dyrare än den i 3090. Och eventuell högre marginal på 80-kortet kan också ha kompensera.

Citat:

Jag gjorde det lätt för mig och tog roten ur antalet kvadratmillimeter och stoppade in den siffran på en kvadratisk krets i en Die Per Wafer Calculator (googla!). Den intressanta siffran är den procentuella skillnaden, kan ju vara så att kretsen har en mer rektangulär form som medger en annan stackning och potentiellt någon krets mer per wafer, men det spelar ju ingen roll eftersom jag tog fram den procentuella skillnaden med samma förutsättningar i båda fallen.

Alltså jag syftade på wafer-priset för N6 och N5, jag hade redan kontrollerat antalet kretsar per wafer och fick liknande resultat (beror dock såklart på hur man räknar på yieldsen och som du säger hur rektangulär kretsen är)

Citat:

Fysiskt är den mycket mindre på AD103 jämför med GA102, sen är inte CUDA-kärnorna direkt jämförbara mellan generationer som nämnts tidigare. Mellan 20- och 30-serien fick de t.ex. en annan uppbyggnad, där varje plötsligt ansågs vara två CUDA-kärnor, så jag skulle inte bli förvånad om det var något liknande nu. Googla lite på TSMC N5 så hittar du nyheter om vilken yield TSMC marknadsför att de håller på den processen, specifika kunder är nog däremot affärshemligheter.

Alltså det jag syftade på var att eftersom GA102 i 3080 inte använder hela kretsen kommer den klara sig med mer defekter, ju mer av kretsen du använder ju mindre lämpliga kretsar kommer du ju få per wafer.

Citat:

60% fler transistorer och 66% fler kretsar.

Ja, och prisskillanden tillräckligt stor kan det fortfarande vara en dyrare krets... Som sagt från dina egna wafer priser så är n5 80% dyrare än n6, och då säkirligen mer än så från Samsungs 8nm. Om det nu är så att vi har kommit så långt att transtor/kr inte sjunker (vilket siffrorna talar för), då kommer alla kretsar med fler transistorer vara dyrare att tillverka mot tidigare noder.

Citat:

Jag motsäger inte det heller, så har det ju varit även med andra sentida processer att varje wafer blir rejält mycket dyrare att producera. Men ja, det är kvalificerad navelskådning tills någon kommer ut med siffror, vilket känns osannolikt. Jag är fortfarande övertygad om att det som har störst betydelse för prislappen är de kraftiga signaler folk har skickat under försäljningen av RTX 30-serien, i form av att inte bara köpa allt som finns tillgängligt utan även betala saftiga överpriser.

Det vore ju dumt av Nvidia att inte åtminstone försöka sälja efterträdaren till ett rejält premium. Med lite otur för oss vanliga dödliga så köper tillräckligt många de nya korten till begärda priser och etablerar en ny nivå av GPU-priser för framtida generationer.

Alltså, jag försvarar inte prissättningen av 4080 (något av korten egentligen), och jag håller med om att det ser ut som att det medvetet hålls högt för att inte förstöra ett lager av 3000-serien som var räknade med att säljas för fullpris. Som sagt, omöjligt att veta med säkerhet marginalskillnader på specifika produkter, eller om det kommer ändras totalt sett över 3000-serien mot 4000-serien, men att prisutvecklingen på senaste halvledartekniken driver upp tillverkningspriserna om man ska forstätta med liknande transistor(prestanda)ökning är väl nästintill ett faktum, och i den bemärkelsen så har ju Jensen rätt i det han säger.

Permalänk
Medlem

Ju mer jag jämför 40-seriens modeller med tidigare serier, desto mindre kan jag 4080 12GB som något annat än i bästa fall ett omdöpt 4070ti (och då är jag generös). Hittade ytterligare en jämförelse på reddit:

Permalänk
Medlem
Skrivet av meanh:

Ju mer jag jämför 40-seriens modeller med tidigare serier, desto mindre kan jag 4080 12GB som något annat än i bästa fall ett omdöpt 4070ti (och då är jag generös).

Folk här och på andra ställen behöver släppa sargen och inse att Nvidias namnscheman inte är någon garanti för att få något godtyckligt motsvarande som förra generationens modeller med samma suffix hade.

Det har hänt förr och det kommer hända igen. Vi kan inte göra något åt det mer än att avstå från att köpa fulmodellerna, vara upplysta konsumenter, och möjligen sprida kunskapen och till andra mindre insatta.

Ingen är chockad över att 4080 12 GB är en snikmodell längre, kom över det.

Permalänk
Medlem
Skrivet av Sveklockarn:

Folk här och på andra ställen behöver släppa sargen och inse att Nvidias namnscheman inte är någon garanti för att få något godtyckligt motsvarande som förra generationens modeller med samma suffix hade.

Det har hänt förr och det kommer hända igen. Vi kan inte göra något åt det mer än att avstå från att köpa fulmodellerna, vara upplysta konsumenter, och möjligen sprida kunskapen och till andra mindre insatta.

Ingen är chockad över att 4080 12 GB är en snikmodell längre, kom över det.

Tester efter lanseringen kommer nog svara på frågan. Presterar 4080 12GB som ett 3080ti (i icke cherrypicked spel) så är det ett 4070 som Nvidia försöker ta hutlöst betalt för.

Vad Nvidia vill kalla det kortet är rätt ointressant egentligen.