Nvidia prisjusterar Geforce RTX 4000-serien i Europa

Permalänk
Medlem
Skrivet av wargreymon:

Var hittar folk på såna här fantasisummor? 4500:- är $350 innan skatt, inte ens 1070 var så lågt. Du får gå tillbaka till 970 för att komma till den summan, och då har jag inte räknat med inflation. Eller ska du vänta tills kronan är något extremt stark?

Det har dock varit extremt hög efterfrågan på GPU'er därav priserna, minskar efterfrågan så kommer priserna gå ner igen, rtx 2070 super fanns t.ex. för 4500kr och RX 5700 XT under 2019, jag köpte även ett 980 Ti på webhallen när 1070 lanserades för 4500kr, det behöver inte vara vid lansering det jag vill se är priser som gradvis sjunker och inte ökar...

Visa signatur

R7 5800X3D / RX 6950 XT / 32GB Ram / 1TB SSD / X570 Bräda / 850w Nätagg.
32 Tums Skärm 1440p 144hz Curved VA panel.

Permalänk
Snusfri

Den som tror att AMD kommer lägga sig långt under Nvidia prismässigt kommer att bli grymt besvikna.
AMD's nya serie kommer ligga runt 85-95% i både prestanda och pris i jämnförelse med Nvidia.

Visa signatur

WS: i9 13900K - 128GB RAM - 6.5TB SSD - RTX 3090 24GB - LG C2 42" - W11 Pro
LAPTOP 1: Lenovo Gaming 3 - 8GB RAM - 512GB SSD - GTX 1650
LAPTOP 2: Acer Swift 3 - 8GB RAM - 512GB SSD
SERVER: i5 10400F - 64GB RAM - 44TB HDD
NALLE: Pixel 7 Pro

Permalänk
Medlem
Skrivet av THB:

Den som tror att AMD kommer lägga sig långt under Nvidia prismässigt kommer att bli grymt besvikna.
AMD's nya serie kommer ligga runt 85-95% i både prestanda och pris i jämnförelse med Nvidia.

Efterfrågan på grafikkort är vad jag förstått låg så det kan vara något som får ner priserna. Men jag antar att de försöker mjölka vad som går innan jul

Permalänk
Medlem
Skrivet av klk:

Efterfrågan på grafikkort är vad jag förstått låg så det kan vara något som får ner priserna. Men jag antar att de försöker mjölka vad som går innan jul

Efterfrågan på 4090 är enorm, allt under dem låg. Folk som uppgraderar till 4090 mättar marknaden med begagnade kort.

Permalänk
Medlem
Skrivet av wargreymon:

Var hittar folk på såna här fantasisummor? 4500:- är $350 innan skatt, inte ens 1070 var så lågt. Du får gå tillbaka till 970 för att komma till den summan, och då har jag inte räknat med inflation. Eller ska du vänta tills kronan är något extremt stark?

*Host*

(Ett -Ti t.om., inköpt på Netonnet 2017.)

Men nä, RTX 4070 för 4500:- lär vi tyvärr inte se röken av.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Medlem
Skrivet av str8forthakill:

Efterfrågan på 4090 är enorm, allt under dem låg. Folk som uppgraderar till 4090 mättar marknaden med begagnade kort.

4090 finns i lager trots att Nvidia begränsar tillgången. Jag tror inte på att efterfrågan är enorm.

Permalänk
Medlem

Är det någon som vet om det är speciella regler för just elektronik med moms etc.? Eller är det bara europeiska leverantörer som har kommit överens i någon form av ”kartell” om dessa priser från dollar? Den här typen av påslag såg vi ju inte för runt 10 år sedan även när vi räknar med valutaförändringen?

Jag är löparnörd och köper olika typer av löparskor, främst från Asics.

Priset på hemsidan är MSRP i amerikanska dollar, men man kan enkelt välja annan valuta såsom SEK på hemsidan.

Jag köpte Metaspeed Sky+ som kostar $250 vilket översätts till 2500:- när man köper den i SEK.

Jag köpte även ett par andra för $169 som blev 1699:- samt ett par för $220 där det blev en smärre justering till 2300:-

Har fått hem alla skor och det kostade precis så mycket som stod på hemsidan.

Permalänk
Medlem

Köpte den som demo. Men den var bare nedsatt en hundralapp. Men var också några veckor efter lansering bara. Var rimligare priser då. Oktober 2017

Visa signatur

Jag äger minst en databehandlingsmaskin.

Permalänk
Medlem
Skrivet av MinscS2:

*Host*

<Uppladdad bildlänk>
(Ett -Ti t.om., inköpt på Netonnet 2017.)

Men nä, RTX 4070 för 4500:- lär vi tyvärr inte se röken av.

Ja, det var ett bra pris! Däremot räknat med dagens kron-kurs hade det varit nästan 5000:- och med inflation så är vi uppe i 6000:-.

4000-serien ser ut att bli en dyr historia och anser själv att det borde vara billigare med i alla fall 4080 (4090 i Titan-klass är i linje), men man får nog ha lite realistiska förhoppningar i alla fall.

Permalänk
Medlem

5%?? grejerna är ju ändå fördyra, köper AMD nu, de kan sänka priserna hur mycket de vill, Nvidia är rökta hos mig för tillfället.
Ända jag kommer sakna är Nvidias "ShadowPlay" en feature som gör det väldigt smidigt å lätt att spela in de man har på skärmen.

Visa signatur

|Workstation: AMD Ryzen 9 7900X 4.7GHz | ASRock X670E | AMD Radeon 7900 XT | 32GB DDR5 | NVMe 2.0TB | HDD 4.0TB |
|VMware rig: AMD Threadripper 2920x | ASUS PRIME X399-A | 24GB DDR4 | 10TB Storage |
|HTPC: AMD Ryzen 3 2200G 3.7 GHz | Gigabyte B450M DS3H | Radeon Vega 8 | 8GB RAM | SSD 120GB | *Test rig för div Linux distar, drivers m.m.

Permalänk
Medlem
Skrivet av wargreymon:

Var hittar folk på såna här fantasisummor? 4500:- är $350 innan skatt, inte ens 1070 var så lågt. Du får gå tillbaka till 970 för att komma till den summan, och då har jag inte räknat med inflation. Eller ska du vänta tills kronan är något extremt stark?

Och man kan lika väl vända på argumentet och fråga sig varför folk som du tror ett kort som ett 4070 ska vara värt mer än 349USD?
Vi vet inte ens vad 4070 kommer ha för spec men det blir ju sämre än 4070ti som har en 296mm² die så jävligt liten med dagens mått och även väldigt liten mätt med 10-15 år gamla mått.
Sedan en 192bit small minnesbuss på köpet, kort med 512bit har tillverkats för för 13-14 år sedan för överkomliga priser.
Du kunde köpa ett GTX260 med en 470 mm² stor die med en 448bit bus 2009 för svenska priset 1395Kr så som GTX260 nytt och ja det betyder ganska exakt 256 extra kulor på GPU'ns förpakning för data banor och lika många extra traces.
Faktiskt rätt intressant hur en 13-14 år gammal GPU har samma eller fler kontakter för minne än dagens.

Det är helt okej att argumentera för att TSMC's nyare noder är dyrare men som sagt fortfarande ett relativt litet chip, PCB'n för ett kort som detta är inte nåt komplicerat som inte kunnat fabriceras senaste 10 åren för skit och inget.

Det är också okej att argumentera för att moderna kort har fler och dyrare power stages, kondingar, mosfets osv.

Men allt detta sammanslaget förklarar inte varför dagens kort kostar 899-1599USD när ett kort 2009 kostade ca 500 USD och gav dig dual GPU med 2st 448bit bussar, 2st chip på 470 mm², totalt 28 minnes chip, utöver 2st GPU'er hade 3st support chip.

500USD 2009 är 694USD i dag för ett flaggskepp, i Sverige i dag är det med moms 8950Kr för ett flaggskepp,
Samtidigt kostade GTX 260 i dagens pengar 1787Kr.
När det släpptes i staterna var det ett MSRP på 299 USD, dollar kursen kan vi inte göra mycket åt men det ger oss ett hum om vad ett kort ca 4 plats från top kostade så ett RTX 4070 bör kosta ca 349 USD i dag.

Man kan nog argumentera att ett GTX295 var en rätt avancerad produkt, speciellt jämfört med något så banalt som ett 296mm² 4070 med 192bit buss.

Vi vet dessutom rätt bra vad tex minnen som mest kostar, har minnen på väg till mitt RTX2080 som ska lagas.
Priserna på GDDR6 verkar liga runt 150-200Kr NOS till vanlig dödlig per chip, vad företag betalar vet vi ju inte exakt men garanterat mindre än vad du eller jag får pröjsa med diverse mellanhänder.
Nvidia säljer Minne + GPU'er i paket till partners och det är här nvidia tjänar pengarna då dom i princip kan garantera sig själva största delen av vinsten genom att lägga på så mycket marknaden är villig att pröjsa för deras GPU'er.

Korten kostar inte så satans mycket som Nvidia begär, PCB, Minne eller ens fabricering av GPU.

Utvecklingskostnader finns så klart men det har alltid funnits och Nvidia har ju tjänat rekordbelopp år på år.

Så ja varför folk tror att nåt som kommer vara sämre än ett RTX 4070ti ska vara värt mer än 349 USD när det mer historiskt varit ett 149-299 USD produkt beroende på var i livscykeln kortet är om det sålts för 13-14 år sedan så med inflation inräknad en 249USD produkt i dag.

399 USD är nog mer vad 4070ti borde kosta och RTX 4070 ca 349USD kanske men vi vet ju inte vad 4070 ens är för nåt än.

Nvidia tar betalt så mycket dom bara kan för i praktiken finns det inte mycket konkurens, och dom som har djupast fickor i dag är företagen där ett Nvidia RTX 6000 48Gb Kostar bara 9999USD, det är ett 4090 med 2x mer ram och företagen köper dessa, därför det inte finns 4090 i lager.
RTX 6000 kostar så klart mer att fabricera men även om vi säger att minnes chipen kostar 40 USD styck och du nu har 2x fler inte fan blir kortet över 800USD dyrare för det.

Dagens Gamers konkurrerar med serverhallar och stora företag som behöver GPGPU'er, det är inte som förr där Nvidia konkurrerade mot ATI eller AMD om att vinna marknadsandelar på konsumentmarknaden, alla vet vem Nvidia är och Nvidia är nu i Enterprise segmentet sedan länge.

Oavsett förstår jag inte folk som jämför ett hypotetiskt 4070 med ett 1070 i pris när 1070 på papper har större chip och bredare buss och hade ett MSRP på 379 USD, så då är ju 349 USD rätt rimligt för et 4070 klassens kort.

Sedan att korten i dag inte säljs till MSRP och inte landar under MSRP efter 2 år på marknaden gör ju inte saken ett dugg bättre heller.

Men ja alla verkar "köpa" nvidias prissättning phun intended!

Ett annat problem jag ser med Nvidia är att många inom press världen har noterat att Nvidia är väldigt stolta över sina produkter och hur dom gör saker och ogillar om recensenter och press inte presenterar deras kort så som Nvidia vill.
Kollar vi på RTX 4000 seriens kort ser vi ju att Nvidia tex pressade upp TDP rätt högt för några extra procent prestanda.
Det kostar både i power stages och kylare så onödig kostnad för minimal prestanda vinst.
Vi ser partnerkort av RTX 4080 med en 600W kylare på 300W kort, blir onödigt dyra kort då koppar är dyrt.
Även Nvidias kort tillverkas ju som dom är en Apple iPhone, absolut imponerande produkter men Nvidia verkar extremt fokuserade på att "spendera" vad köparen måste pröjsa på saker som kanske inte behövts.
Tyvärr leder det också till vist snåleri där AIB partners försöker spara pengar och tar bort power stages och använder trough hole kondensatorer istället för överlägsna SMD varianter, låser power target till 450W (pga färre power stages) för att ha råd med vattenblocket kortet kommer med och som resultat kan du inte överklocka för det fins igen strömbudge, allt för att få till det där priset Nvidia vill att dom ska ha då Nvidia dikterar AIB partners priser.
Denna inflexibilitet leder ju till både dyra skit produkter och dyra överbyggda produkter istället för valfrihet mellan "bra nog" och "premium".

Som jag ser det får gamers antigenen sluta köpa kort för 3x vad dom är värda och hoppas att Nvidia och som resultat AMD dumpar priserna för att återfå kunderna eller så bestämmer sig Nvidia för att bara sälja till företag som betalar många gånger mer vad korten egentligen kostar så får vi gå tillbaks till IGP ungefär som man fick köra mjukvaru renderad grafik innan 3D acceleratorn blev överkomlig nog.

Priserna på GPU'er kan inte bara stiga, för då har igen råd, men det kanske blir så att streaming av spel blir det enda folk har råd med i framtiden för det är resultatet av kapitalismen, en fri marknad och brist på relevant konkurrens.

Permalänk
Medlem
Skrivet av wargreymon:

Ja, det var ett bra pris! Däremot räknat med dagens kron-kurs hade det varit nästan 5000:- och med inflation så är vi uppe i 6000:-.

4000-serien ser ut att bli en dyr historia och anser själv att det borde vara billigare med i alla fall 4080 (4090 i Titan-klass är i linje), men man får nog ha lite realistiska förhoppningar i alla fall.

man kan ju titta på andra tillverkare och kanske hitta något som passar både behovet och plånboken.

Visa signatur

|Workstation: AMD Ryzen 9 7900X 4.7GHz | ASRock X670E | AMD Radeon 7900 XT | 32GB DDR5 | NVMe 2.0TB | HDD 4.0TB |
|VMware rig: AMD Threadripper 2920x | ASUS PRIME X399-A | 24GB DDR4 | 10TB Storage |
|HTPC: AMD Ryzen 3 2200G 3.7 GHz | Gigabyte B450M DS3H | Radeon Vega 8 | 8GB RAM | SSD 120GB | *Test rig för div Linux distar, drivers m.m.

Permalänk
Medlem
Skrivet av Oliver91:

det behöver inte vara vid lansering det jag vill se är priser som gradvis sjunker och inte ökar...

När inflationen ligger på 10% så räcker det med att prisern a ligger kvar vid lanseringspriset för att du ska få en hyffsad sänkning av realpriset.

Permalänk
Medlem

5% LOL, det är som att pissa i motvind. 😁

50% däremot, now we talkin'. 🙂

Permalänk
Medlem
Skrivet av pa1983:

Och man kan lika väl vända på argumentet och fråga sig varför folk som du tror ett kort som ett 4070 ska vara värt mer än 349USD?
Vi vet inte ens vad 4070 kommer ha för spec men det blir ju sämre än 4070ti som har en 296mm² die så jävligt liten med dagens mått och även väldigt liten mätt med 10-15 år gamla mått.
Sedan en 192bit small minnesbuss på köpet, kort med 512bit har tillverkats för för 13-14 år sedan för överkomliga priser.
Du kunde köpa ett GTX260 med en 470 mm² stor die med en 448bit bus 2009 för svenska priset 1395Kr så som GTX260 nytt och ja det betyder ganska exakt 256 extra kulor på GPU'ns förpakning för data banor och lika många extra traces.
Faktiskt rätt intressant hur en 13-14 år gammal GPU har samma eller fler kontakter för minne än dagens.

Det är helt okej att argumentera för att TSMC's nyare noder är dyrare men som sagt fortfarande ett relativt litet chip, PCB'n för ett kort som detta är inte nåt komplicerat som inte kunnat fabriceras senaste 10 åren för skit och inget.

Det är också okej att argumentera för att moderna kort har fler och dyrare power stages, kondingar, mosfets osv.

Men allt detta sammanslaget förklarar inte varför dagens kort kostar 899-1599USD när ett kort 2009 kostade ca 500 USD och gav dig dual GPU med 2st 448bit bussar, 2st chip på 470 mm², totalt 28 minnes chip, utöver 2st GPU'er hade 3st support chip.

500USD 2009 är 694USD i dag för ett flaggskepp, i Sverige i dag är det med moms 8950Kr för ett flaggskepp,
Samtidigt kostade GTX 260 i dagens pengar 1787Kr.
När det släpptes i staterna var det ett MSRP på 299 USD, dollar kursen kan vi inte göra mycket åt men det ger oss ett hum om vad ett kort ca 4 plats från top kostade så ett RTX 4070 bör kosta ca 349 USD i dag.

Man kan nog argumentera att ett GTX295 var en rätt avancerad produkt, speciellt jämfört med något så banalt som ett 296mm² 4070 med 192bit buss.

Vi vet dessutom rätt bra vad tex minnen som mest kostar, har minnen på väg till mitt RTX2080 som ska lagas.
Priserna på GDDR6 verkar liga runt 150-200Kr NOS till vanlig dödlig per chip, vad företag betalar vet vi ju inte exakt men garanterat mindre än vad du eller jag får pröjsa med diverse mellanhänder.
Nvidia säljer Minne + GPU'er i paket till partners och det är här nvidia tjänar pengarna då dom i princip kan garantera sig själva största delen av vinsten genom att lägga på så mycket marknaden är villig att pröjsa för deras GPU'er.

Korten kostar inte så satans mycket som Nvidia begär, PCB, Minne eller ens fabricering av GPU.

Utvecklingskostnader finns så klart men det har alltid funnits och Nvidia har ju tjänat rekordbelopp år på år.

Så ja varför folk tror att nåt som kommer vara sämre än ett RTX 4070ti ska vara värt mer än 349 USD när det mer historiskt varit ett 149-299 USD produkt beroende på var i livscykeln kortet är om det sålts för 13-14 år sedan så med inflation inräknad en 249USD produkt i dag.

399 USD är nog mer vad 4070ti borde kosta och RTX 4070 ca 349USD kanske men vi vet ju inte vad 4070 ens är för nåt än.

Nvidia tar betalt så mycket dom bara kan för i praktiken finns det inte mycket konkurens, och dom som har djupast fickor i dag är företagen där ett Nvidia A6000 48Gb Kostar bara 9999USD, det är ett 4090 med 2x mer ram och företagen köper dessa, därför det inte finns 4090 i lager.
A6000 kostar så klart mer att fabricera men även om vi säger att minnes chipen kostar 40 USD styck och du nu har 2x fler inte fan blir kortet över 800USD dyrare för det.

Dagens Gamers konkurrerar med serverhallar och stora företag som behöver GPGPU'er, det är inte som förr där Nvidia konkurrerade mot ATI eller AMD om att vinna marknadsandelar på konsumentmarknaden, alla vet vem Nvidia är och Nvidia är nu i Enterprise segmentet sedan länge.

Oavsett förstår jag inte folk som jämför ett hypotetiskt 4070 med ett 1070 i pris när 1070 på papper har större chip och bredare buss och hade ett MSRP på 379 USD, så då är ju 349 USD rätt rimligt för et 4070 klassens kort.

Sedan att korten i dag inte säljs till MSRP och inte landar under MSRP efter 2 år på marknaden gör ju inte saken ett dugg bättre heller.

Men ja alla verkar "köpa" nvidias prissättning phun intended!

Som jag ser det får gamers antigenen sluta köpa kort för 3x vad dom är värda och hoppas att Nvidia och som resultat AMD dumpar priserna för att återfå kunderna eller så bestämmer sig Nvidia för att bara sälja till företag som betalar många gånger mer vad korten egentligen kostar så får vi gå tillbaks till IGP ungefär som man fick köra mjukvaru renderad grafik innan 3D acceleratorn blev överkomlig nog.

Priserna på GPU'er kan inte bara stiga, för då har igen råd, men det kanske blir så att streaming av spel blir det enda folk har råd med i framtiden för det är resultatet av kapitalismen, en fri marknad och brist på relevant konkurrens.

Fast man kan inte jämföra storleken på dien mot pris.... Mindre nod avsevärt mera transistorer etc per mm2 i nyare gen.
Rykten säger att 4080 kostar ~4k att tillverka utan påslag för forskningen och vinsten som ett exempel.

1080 7.2 miljarder transistorer 314mm2 (23M/mm2)
2080 13.6 miljarder transistorer 545mm2 (25M/mm2)
3080 28 miljarder transistorer 628mm2 (44.5M/mm2)
4080 45.9 miljarder transistorer 379mm2 (121.1M/mm2)

Som du kan se så är det ca 6x så många transistorer på samma ungefär area mellan 1080 och 4080...

Nu är 4080 prissatt åt hel***te men det är en avsevärt förbättring mellan transistor/mm2 och ett pris runt 10-12k vore rimligt med våran dollar kurs och dess prestanda

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Bizzro:

När inflationen ligger på 10% så räcker det med att prisern a ligger kvar vid lanseringspriset för att du ska få en hyffsad sänkning av realpriset.

Och du får 10% löneökning i år? Bli glad om du kommer över 2,9%

Visa signatur

Moderkort: Gigabyte X570 AORUS MASTER rev 1.2 Processor: AMD Ryzen 7 5800X3D Kylning: Corsair be quiet! Dark Rock Pro 4 Minne: 32 GB Crucial Ballistix 3600 MHz Grafikkort: Sapphire NITRO+ Radeon RX 7900 XTX Hårddiskar: Corsair Force MP600 1TB M.2, Seagate BarraCuda 4TB 5400rpm Nätagg: Corsair RM850x V2 Chassi: Fractal Design Define 7 Compact Skärm: LG C3 77 tums TV

Permalänk
Medlem
Skrivet av Swedishchef_90:

Fast vi kan köpa i euro, många köper från Tyskland. Typ case King

Som regel får vi dock lönen i SEK.

Permalänk
Medlem
Skrivet av pa1983:

Och man kan lika väl vända på argumentet och fråga sig varför folk som du tror ett kort som ett 4070 ska vara värt mer än 349USD?
Vi vet inte ens vad 4070 kommer ha för spec men det blir ju sämre än 4070ti som har en 296mm² die så jävligt liten med dagens mått och även väldigt liten mätt med 10-15 år gamla mått.
Sedan en 192bit small minnesbuss på köpet, kort med 512bit har tillverkats för för 13-14 år sedan för överkomliga priser.
Du kunde köpa ett GTX260 med en 470 mm² stor die med en 448bit bus 2009 för svenska priset 1395Kr så som GTX260 nytt och ja det betyder ganska exakt 256 extra kulor på GPU'ns förpakning för data banor och lika många extra traces.
Faktiskt rätt intressant hur en 13-14 år gammal GPU har samma eller fler kontakter för minne än dagens.

Det är helt okej att argumentera för att TSMC's nyare noder är dyrare men som sagt fortfarande ett relativt litet chip, PCB'n för ett kort som detta är inte nåt komplicerat som inte kunnat fabriceras senaste 10 åren för skit och inget.

Det är också okej att argumentera för att moderna kort har fler och dyrare power stages, kondingar, mosfets osv.

Men allt detta sammanslaget förklarar inte varför dagens kort kostar 899-1599USD när ett kort 2009 kostade ca 500 USD och gav dig dual GPU med 2st 448bit bussar, 2st chip på 470 mm², totalt 28 minnes chip, utöver 2st GPU'er hade 3st support chip.

500USD 2009 är 694USD i dag för ett flaggskepp, i Sverige i dag är det med moms 8950Kr för ett flaggskepp,
Samtidigt kostade GTX 260 i dagens pengar 1787Kr.
När det släpptes i staterna var det ett MSRP på 299 USD, dollar kursen kan vi inte göra mycket åt men det ger oss ett hum om vad ett kort ca 4 plats från top kostade så ett RTX 4070 bör kosta ca 349 USD i dag.

Man kan nog argumentera att ett GTX295 var en rätt avancerad produkt, speciellt jämfört med något så banalt som ett 296mm² 4070 med 192bit buss.

Vi vet dessutom rätt bra vad tex minnen som mest kostar, har minnen på väg till mitt RTX2080 som ska lagas.
Priserna på GDDR6 verkar liga runt 150-200Kr NOS till vanlig dödlig per chip, vad företag betalar vet vi ju inte exakt men garanterat mindre än vad du eller jag får pröjsa med diverse mellanhänder.
Nvidia säljer Minne + GPU'er i paket till partners och det är här nvidia tjänar pengarna då dom i princip kan garantera sig själva största delen av vinsten genom att lägga på så mycket marknaden är villig att pröjsa för deras GPU'er.

Korten kostar inte så satans mycket som Nvidia begär, PCB, Minne eller ens fabricering av GPU.

Utvecklingskostnader finns så klart men det har alltid funnits och Nvidia har ju tjänat rekordbelopp år på år.

Så ja varför folk tror att nåt som kommer vara sämre än ett RTX 4070ti ska vara värt mer än 349 USD när det mer historiskt varit ett 149-299 USD produkt beroende på var i livscykeln kortet är om det sålts för 13-14 år sedan så med inflation inräknad en 249USD produkt i dag.

399 USD är nog mer vad 4070ti borde kosta och RTX 4070 ca 349USD kanske men vi vet ju inte vad 4070 ens är för nåt än.

Nvidia tar betalt så mycket dom bara kan för i praktiken finns det inte mycket konkurens, och dom som har djupast fickor i dag är företagen där ett Nvidia RTX 6000 48Gb Kostar bara 9999USD, det är ett 4090 med 2x mer ram och företagen köper dessa, därför det inte finns 4090 i lager.
RTX 6000 kostar så klart mer att fabricera men även om vi säger att minnes chipen kostar 40 USD styck och du nu har 2x fler inte fan blir kortet över 800USD dyrare för det.

Dagens Gamers konkurrerar med serverhallar och stora företag som behöver GPGPU'er, det är inte som förr där Nvidia konkurrerade mot ATI eller AMD om att vinna marknadsandelar på konsumentmarknaden, alla vet vem Nvidia är och Nvidia är nu i Enterprise segmentet sedan länge.

Oavsett förstår jag inte folk som jämför ett hypotetiskt 4070 med ett 1070 i pris när 1070 på papper har större chip och bredare buss och hade ett MSRP på 379 USD, så då är ju 349 USD rätt rimligt för et 4070 klassens kort.

Sedan att korten i dag inte säljs till MSRP och inte landar under MSRP efter 2 år på marknaden gör ju inte saken ett dugg bättre heller.

Men ja alla verkar "köpa" nvidias prissättning phun intended!

Ett annat problem jag ser med Nvidia är att många inom press världen har noterat att Nvidia är väldigt stolta över sina produkter och hur dom gör saker och ogillar om recensenter och press inte presenterar deras kort så som Nvidia vill.
Kollar vi på RTX 4000 seriens kort ser vi ju att Nvidia tex pressade upp TDP rätt högt för några extra procent prestanda.
Det kostar både i power stages och kylare så onödig kostnad för minimal prestanda vinst.
Vi ser partnerkort av RTX 4080 med en 600W kylare på 300W kort, blir onödigt dyra kort då koppar är dyrt.
Även Nvidias kort tillverkas ju som dom är en Apple iPhone, absolut imponerande produkter men Nvidia verkar extremt fokuserade på att "spendera" vad köparen måste pröjsa på saker som kanske inte behövts.
Tyvärr leder det också till vist snåleri där AIB partners försöker spara pengar och tar bort power stages och använder trough hole kondensatorer istället för överlägsna SMD varianter, låser power target till 450W (pga färre power stages) för att ha råd med vattenblocket kortet kommer med och som resultat kan du inte överklocka för det fins igen strömbudge, allt för att få till det där priset Nvidia vill att dom ska ha då Nvidia dikterar AIB partners priser.
Denna inflexibilitet leder ju till både dyra skit produkter och dyra överbyggda produkter istället för valfrihet mellan "bra nog" och "premium".

Som jag ser det får gamers antigenen sluta köpa kort för 3x vad dom är värda och hoppas att Nvidia och som resultat AMD dumpar priserna för att återfå kunderna eller så bestämmer sig Nvidia för att bara sälja till företag som betalar många gånger mer vad korten egentligen kostar så får vi gå tillbaks till IGP ungefär som man fick köra mjukvaru renderad grafik innan 3D acceleratorn blev överkomlig nog.

Priserna på GPU'er kan inte bara stiga, för då har igen råd, men det kanske blir så att streaming av spel blir det enda folk har råd med i framtiden för det är resultatet av kapitalismen, en fri marknad och brist på relevant konkurrens.

Jag är helt enig om att dessa priser är helt åt h-e. Och du har helt rätt i att det handlar om brist på konkurrens. Av en uppsjö olika skäl så har inte AMD kunnat konkurrera och Nvidias varumärke är så starkt i jämförelse för grafikkort att det inte spelar någon roll vad AMD har att komma med.

Skrivet av Swedishchef_90:

Fast man kan inte jämföra storleken på dien mot pris.... Mindre nod avsevärt mera transistorer etc per mm2 i nyare gen.
Rykten säger att 4080 kostar ~4k att tillverka utan påslag för forskningen och vinsten som ett exempel.

1080 7.2 miljarder transistorer 314mm2 (23M/mm2)
2080 13.6 miljarder transistorer 545mm2 (25M/mm2)
3080 28 miljarder transistorer 628mm2 (44.5M/mm2)
4080 45.9 miljarder transistorer 379mm2 (121.1M/mm2)

Som du kan se så är det ca 6x så många transistorer på samma ungefär area mellan 1080 och 4080...

Nu är 4080 prissatt åt hel***te men det är en avsevärt förbättring mellan transistor/mm2 och ett pris runt 10-12k vore rimligt med våran dollar kurs och dess prestanda

Angående generellt rimliga priser så räcker det med att kolla på hur Nvidias marginaler har utvecklats över tid i takt med att de blivit mer och mer dominanta på marknaden.

Bild tagen från Jon Peddie Research. Det är helt enkelt så att vi inte har en fungerande marknad. Det var en liknande situation innan Ryzen gjorde AMD konkurrenskraftiga mot Intel på CPU-marknaden, med en massa artificiella begränsningar och brist på relevant utveckling sett till pris/prestanda. Idag så kan processorer för under $200 göra det mesta en användare kan begära, från både Intel och AMD när konkurrensen lever och vi konsumenter tittar på båda företagens produkter. Nvidia pushar utvecklingen till skillnad från vad Intel höll på med för ca 10 år sedan, men nu är skillnaden att priserna ökar på ett ohållbart sätt. Väldigt ofta är det, för att bara dra en siffra från ingenstans för att statuera ett exempel, 30% mer prestanda för 30% mer pengar sett till föregående generation. 4090 må kanske var en haloprodukt så den håller jag utanför, men priset på de korten som kommer under som 4080 och vad nu 12GB-versionen kommer heta och kosta är bra exempel på det. Även sett till prissättning i USD.

Om det sen är Nvidias fel för att de utnyttjar sin position på marknaden eller det faktum att AMD inte klarat av att konkurrera så är det sak samma. Hade det varit omvänt hade det sett likadant ut. Vi behöver företag som kan konkurrera med Nvidia på alla marknader där Nvidia har en monopolställning. Sen får vi se om AMD eller Intel klarar av att bjuda upp till den konkurrensen.

Permalänk
Medlem
Skrivet av Shepherds pie:

Som regel får vi dock lönen i SEK.

Tur att det finns banker och växlingsmöjligheter, minskar så klart vinsten att köpa i euro men vi slipper extra tull/moms som vid köp i dollar

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Yasko:

Och du får 10% löneökning i år? Bli glad om du kommer över 2,9%

Inget som säger att du ska ha högre reallön år från år eller ens bibehålla din reallön, om du inte har specifa avtal som regler just det. Löner är bara en liten del av vad som driver inflationen. Det går att ha mycket hög inflation och sammtidigt sjunkande reallöner under längre tidsperioder.

Permalänk
Medlem
Skrivet av Novdid:

Jag är helt enig om att dessa priser är helt åt h-e. Och du har helt rätt i att det handlar om brist på konkurrens. Av en uppsjö olika skäl så har inte AMD kunnat konkurrera och Nvidias varumärke är så starkt i jämförelse för grafikkort att det inte spelar någon roll vad AMD har att komma med.

Angående generellt rimliga priser så räcker det med att kolla på hur Nvidias marginaler har utvecklats över tid i takt med att de blivit mer och mer dominanta på marknaden.

<Uppladdad bildlänk>

Bild tagen från Jon Peddie Research. Det är helt enkelt så att vi inte har en fungerande marknad. Det var en liknande situation innan Ryzen gjorde AMD konkurrenskraftiga mot Intel på CPU-marknaden, med en massa artificiella begränsningar och brist på relevant utveckling sett till pris/prestanda. Idag så kan processorer för under $200 göra det mesta en användare kan begära, från både Intel och AMD när konkurrensen lever och vi konsumenter tittar på båda företagens produkter. Nvidia pushar utvecklingen till skillnad från vad Intel höll på med för ca 10 år sedan, men nu är skillnaden att priserna ökar på ett ohållbart sätt. Väldigt ofta är det, för att bara dra en siffra från ingenstans för att statuera ett exempel, 30% mer prestanda för 30% mer pengar sett till föregående generation. 4090 må kanske var en haloprodukt så den håller jag utanför, men priset på de korten som kommer under som 4080 och vad nu 12GB-versionen kommer heta och kosta är bra exempel på det. Även sett till prissättning i USD.

Om det sen är Nvidias fel för att de utnyttjar sin position på marknaden eller det faktum att AMD inte klarat av att konkurrera så är det sak samma. Hade det varit omvänt hade det sett likadant ut. Vi behöver företag som kan konkurrera med Nvidia på alla marknader där Nvidia har en monopolställning. Sen får vi se om AMD eller Intel klarar av att bjuda upp till den konkurrensen.

Jag håller helt med att en bättre konkurrent till nvidia behövs, amd har börjat kommer ut starkare.

Problemet med gross margin är väl att den inte räknar in forskning, reklam löner etc?
Det är väl bara försäljningspriset - materialet = gross margin.
Så det talar inte hela sanningen för slutgiltiga vinsten

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Swedishchef_90:

Fast man kan inte jämföra storleken på dien mot pris.... Mindre nod avsevärt mera transistorer etc per mm2 i nyare gen.
Rykten säger att 4080 kostar ~4k att tillverka utan påslag för forskningen och vinsten som ett exempel.

1080 7.2 miljarder transistorer 314mm2 (23M/mm2)
2080 13.6 miljarder transistorer 545mm2 (25M/mm2)
3080 28 miljarder transistorer 628mm2 (44.5M/mm2)
4080 45.9 miljarder transistorer 379mm2 (121.1M/mm2)

Som du kan se så är det ca 6x så många transistorer på samma ungefär area mellan 1080 och 4080...

Nu är 4080 prissatt åt hel***te men det är en avsevärt förbättring mellan transistor/mm2 och ett pris runt 10-12k vore rimligt med våran dollar kurs och dess prestanda

Och man kan inte räkna pris per transistor, en 486 CPU har ca 1 miljon transistorer och kostade 500 USD åt 1989,
4070ti har 35,800 miljoner så då blir ju priset 17.9 Miljoner.
Sannigen som jag sa ligger där i mellan vilket Mores första och Andra lag säger.
Lag 1, antal transistorer dubblas på samma area var 24 månad.
Lag 2, priset för tillverkning ökar exponentiellt.

Så nej jag köper inte dit argument för SÅ mycket dyrare blir det inte.
Nvidias vinster visar ju att det finns goda marginaler helt klart.
Jag vet att nyare noder kostar mer men det förklarar inte varför en 296mm² die kostar 3x vad en 470mm² gjorde 2009 med rästen av kortet inräknat.
Dessutom hade man ju 576mm² dies till 200 serien innan dom krymptes till 470mm² så Adas 600mm² om än imponerande är inte så mycket större men visst klart dyrare att tillverka men sedan har jag inte fullt lika mycket problem med RTX 4090 pris som jag har med 4080 eller 4070 då dom två är avsevärt mindre chip och mindre komplexa kretskort.

Vi vet också att AIB's förlorar pengar på "high end kort" som 80 och 90 serien det kom ju ut som ett faktum när EVGA drog sig ur.
Nvidia anser ju att partners ska tjäna in det på 50, 60 och 70 seriens kort eller sälja annan skit som exploderande nätag vid sidan om.
Så ja den enda som blir rik är Nvidia, både AIB's och Kunder blöder pengar på dessa dumma kort.

Sedan borde jag lagt till att Nvidia borde försöka att optimera chipens storlek efter va konsumenter är villiga att betala.
Men Nvidia verkar gillar BIG DIES på 600mm men även ta hutlöst betalt för små dies.
Navi3 med chiplet design gör ju att man kan producera samma "storlek" med 7 chiplets till halva priset typ.
Kan ju vara ett klassiskt fall av att Nvidia inte väljer den vägen då folk betalar vad Nvidia begär så det inte är lönt.
AMD har ju insett att det är lönt, deras kalkyl för Ryzen var att en monolitisk die kostar 2.25x mer än deras nuvarande chiplet design.
Minnes kontrollers så I/O delaran skalar sämst på små noder så därför görs sådana chiplet för Ryzen och NAVI3 på äldre noder då det ger samma resultat för en lägre kostnad.

Vad det gäller pris borde ett RTX 4080 kosta 499 USD och det blir i svenska pengar med moms 6435Kr.

10-12K är rena skämtet och visar bara hur normaliserat Nvidias "The more you buy, the more you save" mentalitet har penetrerat Entusiastens acceptans för absurda priser.

Jag som konsument tänker inte betala nvidias feta vinst marginaler.
Får bli begagnat och laga sina kort eller köpa trasiga och laga istället, inte så dyrt med reservdelar.

Dessutom kräver ju få spel dessa snabbar 3000 eller 4000 seriens kort. Jag kör 21:9 1440 på ett RX5700 (non XT) utan problem.
Väldigt få spel som inte ger hög fps på det.

Nej Nvidia får allt satsa på att bygga korten mer ekonomiskt och inte bara skyffla över både kostnaden av kortens tillverkning plus deras feta vinster på konsumenten.

Permalänk
Medlem

Jag säger *gäsp* till denna symboliska prissänkning från Nvidia. Inväntar istället ett Radeon 7900XTX.

Visa signatur

Dator 1: AMD Ryzen 9 7950X3D, 64 GB Kingston Fury DDR5 5600 MHz CL36 , Asus Radeon 7900XTX TUF OC, Be Quiet Dark Base Pro 900 rev.2 Black Case, Asus ROG Crosshair X670E Hero Mobo , Be Quiet 1500W PSU, Win10 Pro 64-bit, Creative Soundblaster AE7

Dator 2: Intel Core i7 9700k, 32GB DDR4 Corsair 3000 MHz, Asus TUF Z390 Mobo, Asus Radeon 6800 XT TUF, Be Quiet 850 PSU, Win10 Pro 64-bit, Asus TUF GT502 Case

Permalänk
Medlem
Skrivet av Nätokraten:

Jag säger *gäsp* till denna symboliska prissänkning från Nvidia. Inväntar istället glatt ett Radeon 7900XTX.

Även dessa kort är ju rätt dyra, 899-999USD MEN chiplet designen halverar ju typ vad GPU'n kostar, AMD sa inte det rakt ut men dom visade att en monolitisk Ryzen kostar ca 2.25x mer än dagens chiplet design så att anta att deras NAVI3 kostar typ hälften av nvidias monolitiska dies av motsvarande storlek är nog rimligt.

Detta gör ju att AMD kan priskonkurrera intel mycket hårdare, så hårt att när Nvidia teoretiskt gör förlust så gör AMD vinst på korten fortfarande.

Frågan är dock om AMD kommer vilja ge besparingen till kunderna, tror inte det, i alla fall inte helt vilket vi ser på priserna dom satte ut.

Men ja NAVI3 ser himla intressant ut för framtiden för grafikkort och bara hoppas intel hoppar på chiplets med.

Men så länge Nvidia är så dominanta, dom har i min mening dom mest attraktiva funktionerna men ja i dag är ju priset problemet så man får kanske räkna med att köpa sitt andrahandsval när plånboken sätter stop så då är NAVI3 intressant, Intel med för den delen med AV1.

Permalänk
Quizmaster Malmö 22
Skrivet av Wolfkin:

Ingen av er som klarar av att förstå vad ni läser?
Prisjustering, inte prissänkning, på grund av ändrade värdeförhållande på dollar och euro.

Och hur fan ska vi veta skillnaden på prisjustering o prissänkning..?

Skrivet av Wolfkin:

Att man ens ska behöva förklara såna här saker...

Det e rätt. Visa oss allihop att du är bättre än oss 🧐

Visa signatur

[Gigabyte EP35-DS4][Intel Core 2 Duo E8400 3.0 Ghz][2x2GB Corsair XMS 2][Gainward GTX 570][Sandisk Extreme II 480GB][Corsair HX 620W][Fractal Design Define XL R4][Acer GD245HQBID]

Permalänk
Medlem
Skrivet av pa1983:

Och man kan inte räkna pris per transistor, en 486 CPU har ca 1 miljon transistorer och kostade 500 USD åt 1989,
4070ti har 35,800 miljoner så då blir ju priset 17.9 Miljoner.
Sannigen som jag sa ligger där i mellan vilket Mores första och Andra lag säger.
Lag 1, antal transistorer dubblas på samma area var 24 månad.
Lag 2, priset för tillverkning ökar exponentiellt.

Så nej jag köper inte dit argument för SÅ mycket dyrare blir det inte.
Nvidias vinster visar ju att det finns goda marginaler helt klart.
Jag vet att nyare noder kostar mer men det förklarar inte varför en 296mm² die kostar 3x vad en 470mm² gjorde 2009 med rästen av kortet inräknat.
Dessutom hade man ju 576mm² dies till 200 serien innan dom krymptes till 470mm² så Adas 600mm² om än imponerande är inte så mycket större men visst klart dyrare att tillverka men sedan har jag inte fullt lika mycket problem med RTX 4090 pris som jag har med 4080 eller 4070 då dom två är avsevärt mindre chip och mindre komplexa kretskort.

Vi vet också att AIB's förlorar pengar på "high end kort" som 80 och 90 serien det kom ju ut som ett faktum när EVGA drog sig ur.
Nvidia anser ju att partners ska tjäna in det på 50, 60 och 70 seriens kort eller sälja annan skit som exploderande nätag vid sidan om.
Så ja den enda som blir rik är Nvidia, både AIB's och Kunder blöder pengar på dessa dumma kort.

Sedan borde jag lagt till att Nvidia borde försöka att optimera chipens storlek efter va konsumenter är villiga att betala.
Men Nvidia verkar gillar BIG DIES på 600mm men även ta hutlöst betalt för små dies.
Navi3 med chiplet design gör ju att man kan producera samma "storlek" med 7 chiplets till halva priset typ.
Kan ju vara ett klassiskt fall av att Nvidia inte väljer den vägen då folk betalar vad Nvidia begär så det inte är lönt.
AMD har ju insett att det är lönt, deras kalkyl för Ryzen var att en monolitisk die kostar 2.25x mer än deras nuvarande chiplet design.
Minnes kontrollers så I/O delaran skalar sämst på små noder så därför görs sådana chiplet för Ryzen och NAVI3 på äldre noder då det ger samma resultat för en lägre kostnad.

Vad det gäller pris borde ett RTX 4080 kosta 499 USD och det blir i svenska pengar med moms 6435Kr.

10-12K är rena skämtet och visar bara hur normaliserat Nvidias "The more you buy, the more you save" mentalitet har penetrerat Entusiastens acceptans för absurda priser.

Jag som konsument tänker inte betala nvidias feta vinst marginaler.
Får bli begagnat och laga sina kort eller köpa trasiga och laga istället, inte så dyrt med reservdelar.

Dessutom kräver ju få spel dessa snabbar 3000 eller 4000 seriens kort. Jag kör 21:9 1440 på ett RX5700 (non XT) utan problem.
Väldigt få spel som inte ger hög fps på det.

Nej Nvidia får allt satsa på att bygga korten mer ekonomiskt och inte bara skyffla över både kostnaden av kortens tillverkning plus deras feta vinster på konsumenten.

Jag kommer inte bemöda mig att svara då du jämför transistor pris från 89 med dagens priser.

Skillnaden på priset mellan 2015 - 2023 per transistor är försumbar och därför mer jämförbar.

Sen är Moores law död, swec hade en bra nyhetsartikel om det under sommaren.

Oavsett så önskar jag dig en riktigt trevlig jul

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Campaigner:

Och hur fan ska vi veta skillnaden på prisjustering o prissänkning..?

Det e rätt. Visa oss allihop att du är bättre än oss 🧐

Prissäkning hade skett på MSRP
Prisjustering sker på en lokal marknad

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Swedishchef_90:

Jag håller helt med att en bättre konkurrent till nvidia behövs, amd har börjat kommer ut starkare.

Problemet med gross margin är väl att den inte räknar in forskning, reklam löner etc?
Det är väl bara försäljningspriset - materialet = gross margin.
Så det talar inte hela sanningen för slutgiltiga vinsten

Tyvärr berättar den inte hela sanningen. Nvidia satsar oerhört mycket forskning och har en hel del mjukvarututvecklare osv, men en fördubbling av Gross Margin över tid pekar mot att Nvidia tjänar rätt bra på varje såld produkt. Antagligen så bra att de nog kan konkurrera på pris om de känner att de måste. Titta på 1080Ti (som nog var ett svar på fel-hypade Vega) och RTX3080 (som nog "räddades" av crypto-boomen).

Permalänk
Medlem

Lol. Mellanklasskort (4080) till flaggskeppspriser.

Men det är väl det att folk varit villiga att betala som gjort att priserna gått upp. Hade ingen köpt korten så hade de ju antingen fått lägga ner eller sänka priserna.

Visa signatur

Rigg: Corsair Carbide Air 540 | Gigabyte X570 Elite | R7 3700X | Corsair Hydro H70 V1 | 16 GB G.Skill RGB CL16@3200 MHz | Powercolor RX7900 XTX Red Devil | Samsung EVO 960/500 GB | Samsung QVO 870 8TB | Corsair AX860 | Ljud: Monitor Audio GS20 Frontar | Monitor Audio GSLCR Center | KEF Q7 Surround | Epik Legend Subwoofer | Denon 2310 Reciever

Permalänk
Medlem

Om man är villig att betala för 4080 har man också råd med 4090. Då prestandan e så pass mycket högre