Priser på RTX 5080 och 5090 avslöjade

Permalänk
Moderator
Forumledare

*tråd rensad*

Nu tar vi det lugnt och slutar kalla varandra för otrevliga saker. Har man inget vettigt att säga är det bättre att låta bli att skriva.

I vanlig ordning gäller inte ”men hen började” utan man tar själv ansvar för vad man skriver.

Visa signatur

Forumets regler | Har du synpunkter på hur vi modererar? Kontakta SweClockers/moderatorerna

Jag stavar som en kratta

Gillar lök på discord

Permalänk
Medlem

Att 5090 eventuellt ökar mycket i pris är ju rimligt då det verkar vara den enda modellen som faktiskt får ett betydande prestandalyft. Sen är Nvidia helt ensamma på toppen också…

Visa signatur

f0rest stan | Citera mera | Ryzen 9600X - ASUS Prime 9070 XT

Permalänk
Skrivet av walp:

Okej, tack för tipset! Skönt att höra av någon erfaren person som utvärderat alla artiklar var för sig, och jämfört dessa med en S22:a.

Får jag förresten köpa din S22:a om du har kvar den?

Om inte, så får jag väl köpa en S25 Ultra i vår

Det jag reagerade på är ditt påstående:

”Nu har jag en Samsung S22 (som jag älskar) för 2799kr...som gör allt ovan lika bra, bättre, eller tillräckligt bra, och ryms i fickan”
Ryms i fickan är det enda jag håller med om men det gör en bit bark också.

Jo jag tror jag har koll, jag har själv de flesta prylarna i din lista och hur de står sig i jämförelse mot en S22

”En Garmin GPS för 4000kr. Jag har en Garmin Montana 700i , med sjökort och topo+väg kartor, går 20 timmar på batteri samt har satellitkommunikation, behöver ingen uppkoppling , gör din S22 det, nix
En digitalkamera för 5000kr-Har en Nikon D850 med bra optik , tror du att en S22 kommer i närheten?
En filmkamera för 20 000kr, Filmkamera? Det har ingen nuförtiden, men min hybridkamera, Panasonic GH7 är gaska bra för video, S22??
En ficklampa för 300kr. Har en Olight Marauder 2 , 14000 lumen samt Olight Mini 2 7000 lumen, S22?
En laptop för 10 000kr.Antar att du skall trycka in ditt nya Nvidia kort i telefonen, själv har jag en stationär dator.
En telefon för 2000kr. Jag har också en S22+
Mp3-spelare för 1000kr. SONY NW-WM1A, spelar inte några Mp3 dock
Grafritande räknare Ti83+ för 1000kr. MathCad på datorn ritar ganska bra grafer annars använder jag mig av HP räknare med RPN
Klocka för 2000kr. Har några Citizen Solar, som har gått i +15 års tid nu samt en Garmin Fenix, hur länge går din S22 på en laddning och kan du dyka med den?
Kalender för 99kr kalender?”
Mitt val av prylar för jag bryr mig om resultat och användbarheten inte för att de skall få plats i fickan,

Permalänk
Skrivet av xdrive:

Håller med att priset är sjukt, men många verkar tycka, har inte jag råd så ska ingen annan ha det heller...

Men det klart Nvidia vill ha pengar.. som det ser ut nu så går ju de i princip med förlust för varje gaming kort de gör. Hade varit bättre att göra ai kort. 5090 kan de förmodligen sälja till mindre företag och vill någon crazy privat person köpa dem, så kan de göra det...

Jag sålde mitt 4090 för 15 tusen, så jag kommer att köpa oavsett, men tror inte jag kommer vara så het på gröten nästa generation

Sen har vi ju kinas hot mot taiwan som ligger och lurar också. Kan sätta käppar i hjulet för produktion..

Om Kina går in i Taiwan, är priset på ett grafikkort det minsta problemet, TSMC till trots

Permalänk
Medlem
Skrivet av lasseTM:

Alla 5090 kommer inte gå till gamers, väldigt bra kort att jobba med i Blender också.
Så jag vet inte om du tycker att det är ok att vi beskattar ditt jobb med 25% extra skatt.

Jag var inte så seriös men företag behöver väl inte betala punktskatt alltid? Precis som moms går det att lösa om man vill.

Skrivet av ZaaphodBleebronx:

Om Kina går in i Taiwan, är priset på ett grafikkort det minsta problemet, TSMC till trots

Undrar om priset skulle sjunka om Kina tar över Taiwan. De kan väl skala upp?

Blir 5080 såsom 4080 var planerad i början? En klen 5070Ti egentligen som man väljer att kalla 5080?

Visa signatur

Moderkort: Gigabyte X570 AORUS MASTER rev 1.2 Processor: AMD Ryzen 7 5800X3D Kylning: Corsair be quiet! Dark Rock Pro 4 Minne: 32 GB Crucial Ballistix 3600 MHz Grafikkort: AMD Radeon™ RX 9070 XT Taichi 16GB OC Hårddiskar: Corsair Force MP600 1TB M.2, Seagate BarraCuda 4TB 5400rpm Nätagg: Corsair RM850x V2 Chassi: Fractal Meshify 2 Compact Skärm: LG C3 77 tums TV

Permalänk
Medlem
Skrivet av Xinpei:

Men det blir 0 i månaden om du inte köper kortet. Checkmate apologists.

Bästa är att bo under en bro och äta mjöl och vatten, jävlar vad billigt det blir!

Permalänk
Medlem
Skrivet av Jagers:

detta låter helt galet, alla tester jag hittar just nu visar på runt 8-10gb vram i 4k.
nått är snett antingen från ditt håll eller från spelets håll.

att sedan anta att 16gb vram kommer vara för lite om endast 3 år, jag vet inte vad ni båda spelar för skitspel som drar 12-16+gb vram men dem låter beyond o-optimerade. vi kommer sannolikt inte behöva mer än 12gb vram dem kommande 10 åren om du inte går upp till 8k resolution. imho.

Poängen är att det kan vara för lite för att utnyttja GPU'n maximalt. Om en GPU är snabb nog att prestera bra vid en viss upplösning men slår i taket på minnesåtgången så är det "för lite".

Du ser det inte så ofta i dag eftersom speltillverkarna vet hur mycket grafikminne de flesta sitter på. Men det är redan ett faktiskt problem - i senaste Indiana Jones presterar 3060 med 12GB minne bättre än 3070 med 8GB exempelvis, trots att 3070 egentligen är en betydligt snabbare GPU.

Ju snabbare GPUer vi får desto större sannolikhet är det att minnet kan bli en flaskhals när speltillverkarna utnyttjar dem till max. Om 5080 blir lika snabbt som ett 4090 kommer det slå i taket med bara 16gb minne för spel (eller mods) som utgår från att kort med 4090-prestanda har minst 24gb RAM.

Permalänk
Medlem
Skrivet av Yoshman:

Frågan är hur mycket billigare det skulle kunna bli, i alla fall så länge som trycket på TSMC kvarstår.

Som jag förstått det brukar priset på en specifik nod fall när den mognar, men har inget konkret underlag för det och kan mycket väl var så att folk blandat ihop "price per wafer" med effektivt pris per krets där priset påverkas nedåt av att utbytet ökar med tid.

TSMC höjde priset på existerande bleeding-edge noder med ca 5 % inför 2024 och de kommer höja ca 10 % till när vi går in i 2025. Vidare kommer priset på nästa nod få en obehaglig 50 % ökning, från $20k per wafer på 3 nm till $30k per wafer på 2 nm.

High-end GPUer är exempel på en av de största kretsar som tillverkas, så bara den del som TSMC "tar" per krets är idag mer än vad en konsument GPU kostande mot slutkund för 10-15 år sedan. Och det är långt ifrån alla kostnader involverad i att tillverka ett grafikkort.

Så tyvärr lär enda realistiska vägen från punkten vi nu står vara uppåt sett till pris, i alla fall så länge som "high-end" GPU för konsument forsätter vara byggda med rejält stora kretsar på bleeding-edge noder.

Jag tycker inte ritkigt waferförklaringen håller. Det verkar inte vara en särskilt stor faktor i priset om man kollar lite närmare på det.

Ta exempelvis 3080 som lanserades för 699 USD följt av 4080 för 1199.
Det märkliga är att 3080 var nästan dubbelt så stor som 4080, dvs du fick hälften så många gpuer per wafer med 3080.
Även om 4080's tillverkningsnod var dubbelt så dyr som 3080's så borde alltså gpukostnaden vara den samma i båda fallen.

Nvidia hade alltså kunnat sälja 4080 för samma pris som 3080 och fått samma vinst, om det hängde på wafer-kostnaden.

Det troliga är alltså att 4080 lanserades för nästan dubbelt så mycket ena och allena för att Nvidia upptäckte att kunderna var beredda att betala nästan dubbelt så mycket. (Man kan inte klandra dem för det, om de inte höjer priserna får scalpers vinsten istället eftesom efterfrågan är högre än tillgången).

Nu som kunderna inte längre är beredda att betala så mycket kommer priserna gå ner - vilket vi såg ett första tecken på med 4080 Super. Vi får hoppas trenden fortsätter med 5000-serien!

Permalänk
Medlem

Rösta med plånboken säger jag bara. Om NVIDIA fortsätter öka priserna och folk köper blint ändå kommer det fortsätta, och vi är inom några år på 40K+ för 7090.

Visa signatur

Bildskärmar - Asus ROG PG278Q | Asus ROG PG279Q
Stationär - AMD 9700 XT | 7800X3D | 32 GB DDR5 6000 G.Skill
Glorious GMMK Pro / Logitech G Pro

Permalänk
Medlem

Sålänge Nvidia inte får ordentlig konkurrens i toppen lär vi tyvärr inte se några dalande priser. Vi får hålla tummarna för att AMD och Intel (eller någon annan) får tummen ur till nästa generation.
Sen får man inte glömma att vi har vart i en period med extrem inflation, samt en krona med rekord-låg värdering (återigen kostar en dollar över 11kr) vilket gör prisökningar väldigt påtagliga för oss i detta land. 2008 betalade vi under 6kr dollarn... vilket i det närmsta hade halverat dagens grafikkort-kostnader. (trots prisökningar). Värt att tänka på

Själv planerar jag att sälja mitt 4090 för att uppgradera till 5090. Men vi får väl se vad priserna hamnar på när de väl är ute i handeln. Under 35k för ett entusiastkort tror jag knappast...

Permalänk
Medlem
Skrivet av Jaw_B:

Sålänge Nvidia inte får ordentlig konkurrens i toppen lär vi tyvärr inte se några dalande priser. Vi får hålla tummarna för att AMD och Intel (eller någon annan) får tummen ur till nästa generation.
Sen får man inte glömma att vi har vart i en period med extrem inflation, samt en krona med rekord-låg värdering (återigen kostar en dollar över 11kr) vilket gör prisökningar väldigt påtagliga för oss i detta land. 2008 betalade vi under 6kr dollarn... vilket i det närmsta hade halverat dagens grafikkort-kostnader. (trots prisökningar). Värt att tänka på

Själv planerar jag att sälja mitt 4090 för att uppgradera till 5090. Men vi får väl se vad priserna hamnar på när de väl är ute i handeln. Under 35k för ett entusiastkort tror jag knappast...

Så länge folk köper trots överpriser kommer det bara fortsätta bli dyrare. Det bevisar för Nvidia att deras prissättning är rätt. Att en och annan gnäller i forum spelar ingen som helst roll. Titta bara på den urspårade mobilmarknaden med Apple i täten. Här går det dock fortfarande att hitta guldkorn om man håller sig ifrån de största fabrikaten. Att färre unga väljer pc-spel som hobby kommer garanterat att utarma marknaden på lång sikt, men så långt tänker inte Nvidia eller dess aktieägare. AMD skrattar samtidigt hela vägen till banken eftersom de äger konsollmarknaden. Vad skulle de vinna på att priskriga med sina GPUer? Intel är det sista hoppet att hålla tillbaka de skenande priserna. I alla falll tills de blir tillräckligt stora och kan ta ut de priser de vill. Vilket de garanterat kommer göra så fort de har möjlighet. Och vi är tillbaka på ruta 1. Allt på grund av att prisvärde är ett bortglömt begrepp för dagens konsumenter.

Permalänk
Medlem
Skrivet av Oneone:

blir att vänta på 6090 fy fan vilka priser...

Jaahaa du tänker att Ai hypen är över och Nvidia kommer att böna o be att vi skall köpa deras grafikkort.
Vi håller tummarna 👍

Permalänk
Medlem
Skrivet av Mindfighter:

Rent krasst så är antagligen tillverkningskostnaden en försvinnande liten del i priset. Det är Nvidias utvecklingskostnad och TSMC utvecklingskostnad (av nya noder) som garanterat står för lejonparten av priset.

Och utvecklingskostnad tänker jag killgissa inte utvecklas linjärt över tid utan skulle tro att det är en logaritmisk kostnadsökning i takt med att kretsarna blir mer komplexa. Så lite mer prestanda kostar mycket mer.

Inte bara utvecklingskostnad av kretsar heller. Det som förr var en grafik-driver är nu en hel mjukvaru-suite som skall underhållas, t.ex RTX voice och RTX remix, för att inte prata om DLSS som utvecklas hårt. En egen branch av Unreal Engine. Och den hjälp Nvidia står för när spelutvecklarna behöver assistans. Kostnader som vi självklart får betala. Nu tycker jag NV gör ett lysande jobb med sin mjukvara och betalar gärna för det, men jag förstår om många tycker detta är onödigt.

Visa signatur

- 5090

Permalänk
Skrivet av Yasko:

Jag var inte så seriös men företag behöver väl inte betala punktskatt alltid? Precis som moms går det att lösa om man vill.

Undrar om priset skulle sjunka om Kina tar över Taiwan. De kan väl skala upp?

Blir 5080 såsom 4080 var planerad i början? En klen 5070Ti egentligen som man väljer att kalla 5080?

Förutom att alla sanktioner kommer mot Ryssland kommer att se ut som en västanfläkt mot de mot Kina om de invaderar Taiwan.
Dessutom risk för ett 3:e världskrig , men det är klart grafikkort det är viktigt det…

Permalänk
Datavetare
Skrivet av 0cool:

Jag tycker inte ritkigt waferförklaringen håller. Det verkar inte vara en särskilt stor faktor i priset om man kollar lite närmare på det.

Ta exempelvis 3080 som lanserades för 699 USD följt av 4080 för 1199.
Det märkliga är att 3080 var nästan dubbelt så stor som 4080, dvs du fick hälften så många gpuer per wafer med 3080.
Även om 4080's tillverkningsnod var dubbelt så dyr som 3080's så borde alltså gpukostnaden vara den samma i båda fallen.

Nvidia hade alltså kunnat sälja 4080 för samma pris som 3080 och fått samma vinst, om det hängde på wafer-kostnaden.

Det troliga är alltså att 4080 lanserades för nästan dubbelt så mycket ena och allena för att Nvidia upptäckte att kunderna var beredda att betala nästan dubbelt så mycket. (Man kan inte klandra dem för det, om de inte höjer priserna får scalpers vinsten istället eftesom efterfrågan är högre än tillgången).

Nu som kunderna inte längre är beredda att betala så mycket kommer priserna gå ner - vilket vi såg ett första tecken på med 4080 Super. Vi får hoppas trenden fortsätter med 5000-serien!

Skulle säga att det tvärtom stärker misstanken om att enbart wafer-kostnaden är en allt mer framträdande del av slutkostnaden.

Varför valde Nvidia Samsung 8 nm, vilket de enbart gjort för konsumentkorten medan datacenter-versionen av Ampere tillverkades på det betydligt dyrare (men tekniskt bättre) TSMC 7 nm?

Man får tänka på att faktisk wafer-kostnad inte är publik information, men finns rätt gott om uppskattningar så "ball-park" siffror är rimligen hyfsat rätt.

De uppskattningar jag hittar på Samsung 8 nm (som är en förfinad 10 nm) och TSMC 4 nm (förfinad 5 nm och som används av 4000-serien både för konsument och datacenter) är ~1:4,5. (ca $4k mot ca $18k).

Det var när man gick till EUV som priset per wafer rejält gått genom taket, Samsung 8 nm är DUV medan TSMC 4 nm är EUV.

Om man dubblar storleken på kretsen halverar man inte antal kretsar per kisel, det minskas lite mer än så. Men i detta kontext lär det var en av de mindre problemen med alla uppskattningar man gör...

Sist så lär 4080 fått sitt pris åt det högre hållet då det i praktiken ställs mot vad som är ovanför (vilket från start var 4090 som rätt mycket är lika stor som 3090) och under.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yasko:

Undrar om priset skulle sjunka om Kina tar över Taiwan. De kan väl skala upp?

Varenda EUV-fab TSMC äger skulle sprängas sekunden Kina invaderar Taiwan.

Permalänk
Medlem

16k för ett 5080 kändes ändå förväntat, men blir det mer än så så blir det lite väl mycket.

Permalänk
Medlem
Skrivet av ZaaphodBleebronx:

Förutom att alla sanktioner kommer mot Ryssland kommer att se ut som en västanfläkt mot de mot Kina om de invaderar Taiwan.
Dessutom risk för ett 3:e världskrig , men det är klart grafikkort det är viktigt det…

Jag hejar på den sida som lovar billigare GPU 😂

Visa signatur

Moderkort: Gigabyte X570 AORUS MASTER rev 1.2 Processor: AMD Ryzen 7 5800X3D Kylning: Corsair be quiet! Dark Rock Pro 4 Minne: 32 GB Crucial Ballistix 3600 MHz Grafikkort: AMD Radeon™ RX 9070 XT Taichi 16GB OC Hårddiskar: Corsair Force MP600 1TB M.2, Seagate BarraCuda 4TB 5400rpm Nätagg: Corsair RM850x V2 Chassi: Fractal Meshify 2 Compact Skärm: LG C3 77 tums TV

Permalänk
Medlem

Gissade 5090 skulle hamna på minst 32k tidigare i år.. verkar varit ganska bra gissning. Samt att partner kort kommer kosta nån tusenlapp till.
Tänk om folk skulle sluta köpa dessa "överklass kort". Då skulle priserna snart bli lägre..

Visa signatur

Lian-Li Tu150 (fläktmoddad) w Corsair SF750 Platinum SFX / Asus Strix B550-i Itx / Ryzen 5600x @ 4.92.. Scythe Fuma 2 / Crucial Ballistix 2x16 3600@4000 / WD Black SN850 NVME + Kingston A2000 NVME / MSI Radeon RX 6800 referens / 2x120mm Noctua NF-A12x15 golv. 2x120mm Noctua NF A12x25 In och Utblås. Fläktmod tak 1x140mm Noctua NF A14 utlblås via kammare baktill. Samsung 34" c34j791 3440x1440.

Permalänk
Medlem
Skrivet av Keni:

bara börja spara till 45k nu då

antagligen, får hålla sig till gamla spel, allt nytt är ju skit endå

Visa signatur

13900KS | 32GB 6400 DDR5 | 4090 FE | Samsung G8 Oled
ASUS ROG Strix Z790-F Gaming | Fractal Torrent White | Corsair HX1200

Permalänk
Medlem

Visst är man sugen på 5080 men priserna är ju helt sjuka med tanke på att det är ett 203 chip . Tror jag kommer köpa ett Amd kort eller Nvidia kort i mellanklassen istället . 8GB räcker inte för 1440 p spelande längre . Faktum är att aktiverar man framegen så räcker det typ till 720 p . Så 8-12 GB är helt uteslutna då minnet kommer ta slut innan kraften i kortet gör det . Vilken syns så tydligt i skillnaden på 4060 16 GB kontra 8 GB Då massor har testat det .

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 11 ASUS PG279Q skärm

Permalänk
Medlem
Skrivet av Jagers:

detta låter helt galet, alla tester jag hittar just nu visar på runt 8-10gb vram i 4k.
nått är snett antingen från ditt håll eller från spelets håll.

att sedan anta att 16gb vram kommer vara för lite om endast 3 år, jag vet inte vad ni båda spelar för skitspel som drar 12-16+gb vram men dem låter beyond o-optimerade. vi kommer sannolikt inte behöva mer än 12gb vram dem kommande 10 åren om du inte går upp till 8k resolution. imho.

Fast det har ju testas på en massa ställen och 8GB är tillräckligt för 720 p spelande om du aktiverar framegen . Det räcker inte för 1080 p spelande engång längre . https://www.youtube.com/watch?v=dx4En-2PzOU&t=577s

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 11 ASUS PG279Q skärm

Permalänk
Medlem
Skrivet av Yoshman:

Skulle säga att det tvärtom stärker misstanken om att enbart wafer-kostnaden är en allt mer framträdande del av slutkostnaden.

Varför valde Nvidia Samsung 8 nm, vilket de enbart gjort för konsumentkorten medan datacenter-versionen av Ampere tillverkades på det betydligt dyrare (men tekniskt bättre) TSMC 7 nm?

Man får tänka på att faktisk wafer-kostnad inte är publik information, men finns rätt gott om uppskattningar så "ball-park" siffror är rimligen hyfsat rätt.

De uppskattningar jag hittar på Samsung 8 nm (som är en förfinad 10 nm) och TSMC 4 nm (förfinad 5 nm och som används av 4000-serien både för konsument och datacenter) är ~1:4,5. (ca $4k mot ca $18k).

Det var när man gick till EUV som priset per wafer rejält gått genom taket, Samsung 8 nm är DUV medan TSMC 4 nm är EUV.

Om man dubblar storleken på kretsen halverar man inte antal kretsar per kisel, det minskas lite mer än så. Men i detta kontext lär det var en av de mindre problemen med alla uppskattningar man gör...

Sist så lär 4080 fått sitt pris åt det högre hållet då det i praktiken ställs mot vad som är ovanför (vilket från start var 4090 som rätt mycket är lika stor som 3090) och under.

Priserna TSMC uppger varierar nog rätt kraftigt med vem som frågar och vilken volym man är beredd att köpa på ett bräde. Skulle inte förvåna mig om det varierar mer än 4x per wafer beroende på hur mycket man köper.

Rena spekulationer förstås, men ändå det är ju kul med spekulationer.

Apple får ju företräde och sina priser hos TSMC baserat på att de köper nära hela årsproduktioner i taget. Det har få andra kunnat göra tidigare men Nvidia är ju rika nu. Det är inte helt otänkbart att de till och med köper Ada-kretsar billigare än Ampere, om deras beställningsvolymer är mycket större nu (vilket de ju är åtminstone hos TSMC eftersom Ampere delvis tillverkades av Samsung).

Ett annat starkt argument är att både Nvidias och TSMC's vinstmarginaler har ökat kraftigt sedan Ampere. Det kan finnas många förklaringar till det men den enklaste är ändå att de tjänar mer på varje såld krets nu än de gjorde under förra generationen.

Jag tror att Nvidia (och därmed TSMC) fick en julklapp när scalpers och cryptovågen visade att marknaden var beredd att köpa deras kretsar för 2x högre pris än de trodde, och det är mestadels därför korten är 2x dyrare nu.

Nvidia satte knappast priset på ett 3080 till det lägsta de kunde för att gå med vinst heller, så jag tror det finns stora utrymmen för prissänkningar om marknaden skulle svänga åt det hållet.

Permalänk
Medlem
Skrivet av ottoblom:

Visst är man sugen på 5080 men priserna är ju helt sjuka med tanke på att det är ett 203 chip . Tror jag kommer köpa ett Amd kort eller Nvidia kort i mellanklassen istället . 8GB räcker inte för 1440 p spelande längre . Faktum är att aktiverar man framegen så räcker det typ till 720 p . Så 8-12 GB är helt uteslutna då minnet kommer ta slut innan kraften i kortet gör det . Vilken syns så tydligt i skillnaden på 4060 16 GB kontra 8 GB Då massor har testat det .

För det mesta räcker 8gb till 1440p men att ha 10-12 är väl att rekommendera.
8gb räcker alldeles utmärkt till 1080p spelande.
Det blir skevt att titta på tester som avser att visa så stor skillnad som möjligt för eventuella konsumenter och dra slutsatser av hur mkt varm som behövs. Testarna maxar oftast inställningarna och fpsen är många gånger ospelbara (sen e ju smaken som baken, vissa kanske gillar att glida runt i 15-20fps). Som sagt, de är till för att ge en bild av prestandan av aktuella och kommande kort.
Ta tex ett AMD 7600XT med 16gb vram- I vilket spel på denna planet kommer du komma i närheten av att använda ens 50% av det minnet med spelbara bilder per sekund? Det är bara marknadsföring det handlar om i det fallet när det kommer till ”gamers”.

Permalänk
Hedersmedlem
Skrivet av Big_N:

För det mesta räcker 8gb till 1440p men att ha 10-12 är väl att rekommendera.
8gb räcker alldeles utmärkt till 1080p spelande.
Det blir skevt att titta på tester som avser att visa så stor skillnad som möjligt för eventuella konsumenter och dra slutsatser av hur mkt varm som behövs. Testarna maxar oftast inställningarna och fpsen är många gånger ospelbara (sen e ju smaken som baken, vissa kanske gillar att glida runt i 15-20fps). Som sagt, de är till för att ge en bild av prestandan av aktuella och kommande kort.
Ta tex ett AMD 7600XT med 16gb vram- I vilket spel på denna planet kommer du komma i närheten av att använda ens 50% av det minnet med spelbara bilder per sekund? Det är bara marknadsföring det handlar om i det fallet när det kommer till ”gamers”.

7600XT med 16 GB är kanske i överkant, men 3070 och 4060 med 8 GB är i rejäl underkant. T ex i Indiana Jones hamnar 3070, 4060 och 4060 Ti under 3060 i 1080p. Och inte är det tal om några 15-20 fps.

3070 ger i 1080p i snitt 81% av 3080s prestanda, vilket i detta spel skulle vara 112 fps; istället får det 83 fps, och det verkar ju helt klart vara delvis VRAM-relaterat.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem
Skrivet av Thomas:

7600XT med 16 GB är kanske i överkant, men 3070 och 4060 med 8 GB är i rejäl underkant. T ex i Indiana Jones hamnar 3070, 4060 och 4060 Ti under 3060 i 1080p. Och inte är det tal om några 15-20 fps.

3070 ger i 1080p i snitt 81% av 3080s prestanda, vilket i detta spel skulle vara 112 fps; istället får det 83 fps, och det verkar ju helt klart vara delvis VRAM-relaterat.

Absolut att kortet jag drog till med är en extrem. Men vi måste titta på fler parametrar innan en åsikter bildas. Självklart är det surt att priserna går upp så pass mycket. Men utrymmet verkar finnas för de priser som sätts - tyvärr.
Det jag försökte illustrera eller snarare belysa är att granska den informationen som konsumeras. Vad är syftet med testet och kan jag ex applicera det på andra parametrar. Att jag valde just 7600xt var just att det är lätt att ta en produkt som stödjer ens ståndpunkt, precis som i ditt exempel där 1 titel representerar utfallet och slutsats.
Jag förde en liknande syn som jag beskriver ovan ang Intels B580, där jag menade att 10gb och ännu lägre prislapp hade varit att föredra. B580 är i mångt och mycket ett bra kort. Men! Inget 1440p kort där 12gb kommer användas i större utsträckning med ok fps. Med ok menar jag runt 60, behöver ens inte vara stabila 60. Intel arkitekturen skalar väl upp i högre upplösningar och skillnaderna mot konkurrenterna blir större. Men att som entusiast kalla det för ett 1440p kort är bara i marknadsföringssyfte precis som mängden vram - desto högre siffra så måste väl produkten vara bättre.

Permalänk
Hedersmedlem
Skrivet av Big_N:

Att jag valde just 7600xt var just att det är lätt att ta en produkt som stödjer ens ståndpunkt, precis som i ditt exempel där 1 titel representerar utfallet och slutsats.

Jo, fast det finns bra många mer. Jag nämnde ett helt gäng till här som sammanfattning av de videos som är med: #20680769

Många av de spelen (om inte alla?) går bra att spela i på höga inställningar i 1080p när korten har 16 GB, så kortens prestanda räcker till, men grafikminnet gör det inte. T ex Horizon med >90 fps med 16 GB och 44 fps med stutters med 8 GB.

Skrivet av Big_N:

Jag förde en liknande syn som jag beskriver ovan ang Intels B580, där jag menade att 10gb och ännu lägre prislapp hade varit att föredra. B580 är i mångt och mycket ett bra kort. Men! Inget 1440p kort där 12gb kommer användas i större utsträckning med ok fps. Med ok menar jag runt 60, behöver ens inte vara stabila 60. Intel arkitekturen skalar väl upp i högre upplösningar och skillnaderna mot konkurrenterna blir större. Men att som entusiast kalla det för ett 1440p kort är bara i marknadsföringssyfte precis som mängden vram - desto högre siffra så måste väl produkten vara bättre.

Brukar det kallas 1440p-kort? Det verkar dock klara sig helt okej där, speciellt med uppskalning (XeSS/FSR Quality).
Frågan är väl hur mycket pengar de hade kunnat spara på att ha 10 GB istället. Kanske att det vore värt för att få ner priset 500 kr, men för säg 200 kr vore det nog en dålig affär för konsumenterna.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Datavetare
Skrivet av 0cool:

Priserna TSMC uppger varierar nog rätt kraftigt med vem som frågar och vilken volym man är beredd att köpa på ett bräde. Skulle inte förvåna mig om det varierar mer än 4x per wafer beroende på hur mycket man köper.

Rena spekulationer förstås, men ändå det är ju kul med spekulationer.

Apple får ju företräde och sina priser hos TSMC baserat på att de köper nära hela årsproduktioner i taget. Det har få andra kunnat göra tidigare men Nvidia är ju rika nu. Det är inte helt otänkbart att de till och med köper Ada-kretsar billigare än Ampere, om deras beställningsvolymer är mycket större nu (vilket de ju är åtminstone hos TSMC eftersom Ampere delvis tillverkades av Samsung).

Ett annat starkt argument är att både Nvidias och TSMC's vinstmarginaler har ökat kraftigt sedan Ampere. Det kan finnas många förklaringar till det men den enklaste är ändå att de tjänar mer på varje såld krets nu än de gjorde under förra generationen.

Jag tror att Nvidia (och därmed TSMC) fick en julklapp när scalpers och cryptovågen visade att marknaden var beredd att köpa deras kretsar för 2x högre pris än de trodde, och det är mestadels därför korten är 2x dyrare nu.

Nvidia satte knappast priset på ett 3080 till det lägsta de kunde för att gå med vinst heller, så jag tror det finns stora utrymmen för prissänkningar om marknaden skulle svänga åt det hållet.

Finns saker man inte behöver spekulera kring då det är information som måste lämnas ut. En sådan är vinstmarginal och den har faktiskt inte ändrats speciellt mycket under åren för vare sig TSMC (47,1 % 2013 och 54,4 % 2023) eller Nvidia (52,3 % 2013 och 56,9 % 2023).

Däremot har omsättning totalt exploderat för båda dessa, så faktiska beloppet på vinsten har ju exploderat med den.

Att TSMCs omsättning ökat så mycket handlar nog främst om att priserna för deras produkter ökat mångfalt. För Nvidia har ju både volymerna ökat rejält, samtidigt som det skett en kraftig förskjutning från konsumentprodukter till datacenterprodukter.

Tycker hur man än vrider och vänder på det blir det trista insikten: priserna skenar i alla fall delvis för att kostnaderna skenar. I Nvidias fall har de med framgång helt kunna lägga över sina ökade kostnader på kunderna, det samtidigt som man kraftigt ökat volymerna.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Skrivet av Mindfighter:

Det var sant för ett antal år sedan, sen har vi halkat efter inom alla områden, men som vanligt lever vi svenskar på gamla meriter. Vi var bra, vi var teknologisk framstående, vi grundade och drev världsledande bolag o.s.v. det ser inte ut så längre.

Kan du länka till någon peer review som stödjer dessa påståenden?
Vore intressant att läsa.

Visa signatur

Fractal Design Define C, ASUS Rog Strix B550
AMD Ryzen 7 5800X3D,MSI GeForce RTX Ventus 3X 4080 Super OC
HyperX Predator DDR4 3200MHz 16GB( PC4-25600 CL16 16-18-18 )
, Samsung NVMe SSD 960 EVO M2
Seasonic Focus+ 750W 85+ GOLD PSU

Permalänk
Medlem
Skrivet av Big_N:

För det mesta räcker 8gb till 1440p men att ha 10-12 är väl att rekommendera.
8gb räcker alldeles utmärkt till 1080p spelande.
Det blir skevt att titta på tester som avser att visa så stor skillnad som möjligt för eventuella konsumenter och dra slutsatser av hur mkt varm som behövs. Testarna maxar oftast inställningarna och fpsen är många gånger ospelbara (sen e ju smaken som baken, vissa kanske gillar att glida runt i 15-20fps). Som sagt, de är till för att ge en bild av prestandan av aktuella och kommande kort.
Ta tex ett AMD 7600XT med 16gb vram- I vilket spel på denna planet kommer du komma i närheten av att använda ens 50% av det minnet med spelbara bilder per sekund? Det är bara marknadsföring det handlar om i det fallet när det kommer till ”gamers”.

Stämmer inte alls då man testar ner till medium .

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 11 ASUS PG279Q skärm