Nvidia Geforce RTX 3090 skymtas med referenskylare för tre kortplatser

Permalänk
Medlem
Skrivet av oceanic:

Det kostar på att ha det bästa komponenterna, om ”big navi” är kraftfullare än 3090 och priset hamnar på 17.000 är det då orimligt? AMD har processorer för ~50.000 inom entusiast segmentet.

Lite äpplen och päron jämförelse här, utgår från att det är Threadripper du menar "inom entusiast segmentet". Den dyraste varianten ligger på 42K, vilket ju är hysteriskt mycket om kundgruppen hade varit vanliga konsumenter/entusiaster, vilket det inte är.
Nvidia 3xxx serie säljs till dom som spelar spel och inte tjänar en spänn på det, medan Threadripper och liknande säljs primärt till folk som tjänar pengar på att använda sin dator. Det är en väsentlig skillnad när man avgör vad som är dyrt eller prisvärt.

Att lägga 15K på ett grafikkort skulle aldrig falla mig in oavsett vad det har för prestanda, datorspel är helt enkelt inte så viktigt för mig.

Permalänk
Medlem
Skrivet av Sveklockarn:

Det är nog mer troligt att Nvidia har insett att det finns utrymme för ett kort mellan x80 Ti och Titan. Idag får de ju sälja allt som inte duger för Titan som 2080 Ti, vilket antagligen innebär att de slösar bort kretsar på ett relativt billigt kort. Jag tror att strategin kan vara så enkel som att man tar ett 3080 Ti, justerar prestandan, bumpar upp minnesmängden till 20 GB och slår på ett flertal tusen och så att man får ett kort till.

17000-18000 är trots allt väldigt mycket mindre än de närmare 30000 ett Titan går loss på. På det sättet blir det inga förvirrande namnscheman, framförallt inte eftersom det inte funnits några Geforce x90-kort på väldigt länge.

3090 är som jag förstår full die utan nerskärningar vilket Titan brukar ha. Nästa steg är quadro. Gissar att det inte kommer att drälla av tillgängliga 3090. Nåja vi får se. Saken är nog att de insett att prestandan på skuren full die kanske inte kommer räcka till mot RDNA2 för att behålla kronan, bl a kanske p g a de varit tvungna att gå på samsungs teknik som inte är lika bra som TSMCs och att arkitekturen inte är tillräckligt effektiv. Därav kanske också att de slopat sin 250w gräns? Bl a 3090 tros kunna dra uppemot 400w, vilket både kylaren och strömkontakterna tyder på. Och vi "vet" att RDNA2 ska vara 50% mer energieffektiv än RDNA1 vid samma prestanda. Ta då en t ex 80cu RDNA2 som det ryktas om. Den lär vara både snabb och energisnål med tanke på storleken. Då finns vid behov gott om utrymme att kräma på om behovet finns och arkitekturen skalar bra för det. Alltså, om den är långsammare än t ex 3090 så kan man "öppna" upp för högre effektförbrukning för att nå eller slå 3090. Men allt beror på hur arkitekturen klarar det. RDNA har ett tak där frekvenshöjning inte ger mkt och har de lyckats lösa det så kommer AMD vara farliga. Men vi vet eg noll o nada om vad AMD kommer med förutom det vi vet från xbox o ps. O det vi ser där är att RDNA2 är riktigt bra som det verkar.
Otroligt att de lyckats så bra att hålla allt tyst o tätt. Kanske det också skapar lite oro hos Appl... förlåt, menar Nvidia.

Visa signatur

Lian-Li Tu150 (fläktmoddad) w Corsair SF750 Platinum SFX / Asus Strix B550-i Itx / Ryzen 5600x @ 4.92.. Scythe Fuma 2 / Crucial Ballistix 2x16 3600@4000 / WD Black SN850 NVME + Kingston A2000 NVME / MSI Radeon RX 6800 referens / 2x120mm Noctua NF-A12x15 golv. 2x120mm Noctua NF A12x25 In och Utblås. Fläktmod tak 1x140mm Noctua NF A14 utlblås via kammare baktill. Samsung 34" c34j791 3440x1440.

Permalänk
Medlem
Skrivet av EvonS:

3090 är som jag förstår full die utan nerskärningar vilket Titan brukar ha. Nästa steg är quadro. Gissar att det inte kommer att drälla av tillgängliga 3090. Nåja vi får se. Saken är nog att de insett att prestandan på skuren full die kanske inte kommer räcka till mot RDNA2 för att behålla kronan, bl a kanske p g a de varit tvungna att gå på samsungs teknik som inte är lika bra som TSMCs och att arkitekturen inte är tillräckligt effektiv. Därav kanske också att de slopat sin 250w gräns? Bl a 3090 tros kunna dra uppemot 400w, vilket både kylaren och strömkontakterna tyder på. Och vi "vet" att RDNA2 ska vara 50% mer energieffektiv än RDNA1 vid samma prestanda. Ta då en t ex 80cu RDNA2 som det ryktas om. Den lär vara både snabb och energisnål med tanke på storleken. Då finns vid behov gott om utrymme att kräma på om behovet finns och arkitekturen skalar bra för det. Alltså, om den är långsammare än t ex 3090 så kan man "öppna" upp för högre effektförbrukning för att nå eller slå 3090. Men allt beror på hur arkitekturen klarar det. RDNA har ett tak där frekvenshöjning inte ger mkt och har de lyckats lösa det så kommer AMD vara farliga. Men vi vet eg noll o nada om vad AMD kommer med förutom det vi vet från xbox o ps. O det vi ser där är att RDNA2 är riktigt bra som det verkar.
Otroligt att de lyckats så bra att hålla allt tyst o tätt. Kanske det också skapar lite oro hos Appl... förlåt, menar Nvidia.

Allt detta med RDNA2's överlägsenget är ju dock bara spekulationer blandat med marknadsföring för konsolerna som kommer. AMD har ju tyvärr närmast en tradition av att inte kunna leverera sin drömsiffror på GPU. Tänk på 290X, 295X, 390X, R9 Fury, RX Vega 56/64 och Radeon VII som alla skulle slå Nvidias produkter men antingen misslyckades och/eller kom ut på marknaden alldeles för sent.

Med tanke på att ingenting verkar ha läckt ut som tyder på att ett AMD-kort ens existerar redo för produktion så tror jag inte att Nvidia är speciellt oroliga när de bevisligen massproducerat sina egna kort ett tag samt antagligen börjar sälja dem inom 4-5 veckor.

Jag uppmanar däremot alla AMD-anhängare att köpa AMD-kort. Det är ju som med en relation, man stannar både i goda och dåliga tider om man älskar den andre.

Permalänk
Medlem

@Sveklockarn: Man kan säga så här faktiskt . Amd borde ha ruggiga grafikkort i krets 21-22 eller så ljuger Microsoft o Sony eller så är dom bolagen bättre på att bygga grafikkort med Rdna2 än vad Amd är . Man får göra exakt vad man vill med sina pengar och köpa vilket som MEN man måste ändå inse att prisnivån blir lidande om det bara är en aktör .Du nämner 290 x som ett misslyckande men priset hos Nvidia 780-780 ti -770 rasade extremt när det kortet släpptes .

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk
Medlem
Skrivet av EvonS:

3090 är väl eg Titankortet. Titan försvinner och ersätts av 3090. Bara undrar vad Nvidia vet om kommande RDNA2? De är helt klart oroade då de gör om Titan till "konsumentkort" och verkar sänka priset på den om än nu den är svinigt dyr fortfarande. Detta betyder också att om nu BigNavi mot förmodan klår eller hamnar lika med 3090 så har inte Nvidia något att svara med.
De som eg skulle varit toppkortet blir nu 3080 istället för 3080ti.
Gissar att de planerade stegen blev flyttade ner ett steg. Dvs Titan blir 3090. 3080ti blir 3080. 3080 blir 3070 för att svara på det som kommer från AMD.
Vi kan nog kallt räkna med att AMD kommer vara mkt energieffektivare men sen hänger det på deras prestanda och prissättning.
Sen ev prisuppgifter. Nvidia har garanterat inte spikat det än utan de gör de just innan presentationen.

Nej jag tror att Nvidia väntar med riktiga ampere Titan för att se vad AMD har att komma med, om Big Navi lyckas överträffa 3090, släpper de Titankortet och behåller prestandatronen ännu en gång, Nvidia vill nog inte att ett Titankort ska bli överträffad av något kort från röda laget så de vill vara på den säkra sidan. Detta är iaf spekulationer jag har hört från Moore's Law is Dead som jag tycker låter rimligt, kan mycket väl visa sig vara fel.

Permalänk
Medlem
Skrivet av ottoblom:

Amd borde ha ett ruggiga grafikkort i krets 21-22 eller så ljuger Microsoft o Sony eller så är dom bolagen bättre på att bygga grafikkort med Rdna2 än vad Amd är .

Vem har några meningsfulla prestandajämförelser mellan PC och kommande konsoler?

Tills det kommer ut så är det bara gissningar och önskedrömmar om vad de presterar. Ta och titta på en video som jämför konsolversionen av GTA V med PC-versionen, det ser knappt ut som samma spel. Den typen av "optimeringar" kommer garanterat inte att försvinna på den här generationen konsoler heller tyvärr, även om allt säkert kommer att se mycket bättre ut i snitt... men något direkt hot mot grafikprestandan på PC lär det aldrig utgöra.

Det är bara kul att AMD lyckats spinna vidare på sin konsolsatsning. I början såg det ju ganska mörkt ut, nästan som att AMD i princip gick plus minus noll på affären, men det har ju uppenbarligen burit sig ekonomiskt för annars hade de ju inte fortsatt. Nu är det bara att hålla tummarna för att de lyckas överföra RDNA2-teknologin till en PC-produkt i närtid.

Permalänk
Medlem
Skrivet av mrE1:

15 k för ett grafikkort kan aldrig vara rimligt enligt mig. Spelar ingen roll hur bra den presterar.

Hoppas AMD levererar så priserna går ner

Jag skulle säga att AMD är en av få vinnare på att Nvidia har satt dessa absurda priserna som så många konsumenter gladligen anmanar och betalar för.

De har just nu klart mindre storlek på sina chip och har kunnat höja priset på sina kort rejält genom åren bara för att Nvidia med större chip och mer prestanda gjort så. Så har de en hög andel hållbara chip per platta i sin tillverkning kan de alltså hålla en lägre kostnad per chip mot Nvidia men ändå hålla en relativt hög prislapp för en sämre presterade produkt.

Permalänk
Medlem

Nvidia har ju redan en plan B i och med 7nm, dessa konsumentkort är på 8nm Samsung och drar massor med ström men enligt uppgift är motsvarande Quadro-kort redan på 7nm(för att företag inte vill ha denna strömförbrukning). Skulle RDNA2 vara för bra är det bara att döpa om ett par Quadro till Titan och 3080Ti. Dessa blir isåfall superdyra, eftersom Nvidia har mycket begränsad tillgång på 7nm detta år. Men jag är rätt säker på att hela lineupen kommer som Super på 7nm nästa år.

Ett 400W grafikkort kommer inte in i min dator.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem
Skrivet av the squonk:

Nvidia har ju redan en plan B i och med 7nm, dessa konsumentkort är på 8nm Samsung och drar massor med ström

Kolla denna video från ca 10 minuter istället för att upprepa gamla spekulationer.

Permalänk
Medlem
Skrivet av Sveklockarn:

Kolla denna video från ca 10 minuter istället för att upprepa gamla spekulationer.
https://www.youtube.com/watch?v=NTGkW9cRUKI

Så vad Adored TV säger är INTE spekulationer? Han har haft fel oroväckande ofta.

Det han säger är att Nvidia skall överraska alla och köra med Samsung 5nm, men ingen annan än Jim på Adored TV har sagt detta. Så varför skall vi tro på det? Varför drar gaming Ampere då så mycket ström, när inte Quadro gör det?

Andra källor säger att Quadro är TSMC 7nm, precis som GA100, och gaming Ampere är Samsung 8nm. Troligen är chippen inte identiska, eftersom det är olika processer, men dom har troligen motsvarande prestanda med strömförbrukning som den stora skillnaden.

Om en vecka vet vi!

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem
Skrivet av Dragnet:

Jag får inte ihop fläktarnas geometri; om man vänder på fläkten på den undre (vanliga) sidan så stämmer det inte med den övre (nya) fläkten. Bladen är krökta (i radialplanet) åt det håll som de borde men böjningen i djupled går ut andra hållet. Så det ser ut som båda fläktarna drar in luft men de roterar åt olika håll. (Motsols där nere och medsols där uppe.)
Den lite taffliga dekalen på den övre fläkten tyder på att det är fläktens kabelsida vilket indikerar att den fläkten roterar medsols.

Hm, syns några träskruvar?

Permalänk
Medlem
Skrivet av the squonk:

Så vad Adored TV säger är INTE spekulationer? Han har haft fel oroväckande ofta.

Här är det ju dock flera pusselbitar, inte minst att 8 nm inte är EUV.

Skrivet av the squonk:

Det han säger är att Nvidia skall överraska alla och köra med Samsung 5nm,

Det är 7 nm, som påpekas i videon. Det är mer otroligt (som han också säger) att de skulle ha gjort en ny design på Ampere för att köra på en annan nod, vilket är nödvändigt med 10/8 nm men inte med 7/5 nm.

Skrivet av the squonk:

Varför drar gaming Ampere då så mycket ström, när inte Quadro gör det?

Visa gärna en som har siffra på vad korten drar?

Permalänk
Medlem
Skrivet av mrE1:

Alla har vi olika åsikter. Du tycker att priset är okej, jag gör det inte i förhållande vad man kan få för pengarna.

Du kommer kunna köpa Switch,Xbox och PS5 tillsammans för mindre än vad ett nytt toppkort kostar, Helt sjukt enligt mig. Grafikkort har som största syfte att driva spel och då är 15000 uppåt på tok för mycket. Förstår inte heller varför du gör en jämförelse med 50 k på CPU då det kan användas till bra mycket annat än spel och det är ingen som köper 50 k processorer för spel.

Köper inte heller att det på något sätt skulle vara för att få igen pengarna på utvecklingen av korten. Nvidia skulle säkert kunna sälja toppkorten för 7000 kr och fortfarande gå plus.

Ingen grafikkortstillverkare idkar välgörenhet med sina produkter fast många här tror motsatsen, de båda stora inom segmentet är här för att tjäna pengar som alla andra företag och har man bästa grejerna så tar man betalt. När det gäller användningsområden finns det många fler än spel men det finns inget som gör en processor riktad mot vanliga användare värd 50k oavsett vem som tillverkar den såvida den inte används till ren affärsverksamhet, detta stoppar naturligtvis inte många här att klaga på sänkta priser hos konkurrenten då denne inte förmår leverera bättre prestanda. Spelkonsoler är billigare av flera anledningar och säljs som oftast till underpris (förlust) att sedan ta hem vinsten (överpris) på annat runt omkring vilket inte fungerar på komponent marknaden så det går inte riktigt att jämföras med.

Visa signatur

CPU: Intel i9-12900K Cooler: Asus TUF Gaming LC 240 ARGB MB: Asus TUF Gaming Z690 Plus Wifi D4 GPU: Asus TUF GeForce RTX 3080 Ti 12GB Case: In Win D-Frame HD: Intel Optane 900P 280GB, WD Black SN850 1TB Mem: Kingston Fury Beast RGB 3600MHz CL17 32GB PSU: Corsair AX760 OS: Win11 Pro

Permalänk
Medlem
Skrivet av the squonk:

Nvidia har ju redan en plan B i och med 7nm, dessa konsumentkort är på 8nm Samsung och drar massor med ström men enligt uppgift är motsvarande Quadro-kort redan på 7nm(för att företag inte vill ha denna strömförbrukning).

Ett 400W grafikkort inte kommer in i min dator.

NVIDIA Ampere A100 specs (7nm):
TDP: 400W

Permalänk
Medlem
Skrivet av JBE:

NVIDIA Ampere A100 specs (7nm):
TDP: 400W

NVIDIA A100 for PCIe
Max TDP Power 250W
https://www.nvidia.com/en-us/data-center/a100/

Det kommer inte bli några 400W-kort.

Permalänk
Medlem
Skrivet av Sveklockarn:

NVIDIA A100 for PCIe
Max TDP Power 250W
https://www.nvidia.com/en-us/data-center/a100/

Det kommer inte bli några 400W-kort.

A100 har dessutom betydligt grövre specs än gamingkorten:

NVIDIA Ampere A100 specs:
Transistors: 54 billion.
CUDA cores: 6912.
Double-precision performance: 7.8 TFLOPs.
Single-precision performance: 15.7 TFLOPs.
Tensor Performance: 125 TFLOPs.
Node: 7nm TSMC.
Memory: 40GB HBM2e.
Memory bus: 6144-bit.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem
Skrivet av JBE:

NVIDIA Ampere A100 specs (7nm):
TDP: 400W

A100 har helt andra specs som du ser i mitt förra inlägg, och det är inte ett 3D-kort som Quadro. Det är ett AI-kort för datacenter. Quadro är betydligt mer lika gamingkorten på alla sätt.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Skrivet av wargreymon:

Jag ska krypa till korset och erkänna att jag gjorde om mina beräkningar, jag hade skrivit lite fel och det var ~45% bättre prestanda/pris. Om man sedan räknade på 6500;- (Strix 2070S) mot 7500;- (Strix 1080Ti, egentligen var snittet över 8000:-, men hade en kort rea för 7500:-) så var det ~24%. 1080Ti FE vs 1080Ti Strix skiljer det sig 5%. 2070S FE vs 2070S Strix skiljer det sig 6%. Så vi snackar väldigt små marginaler. Så en mer rättvis siffra är att 2070S är 20-50% mer prestanda/pris än 1080Ti. Ursprungspåståendet var att 2000-serien var sämre än 1000-serien i prestanda/pris, vilket den inte är. Att det inte är lika stor förbättring som tidigare håller jag nog med om, det har garanterat varit större ökningar förut. Inflation och kronans värde har inte tagits i beaktning.

Så prestanda/pris ökar. Punkt och pricka. Vad man tycker om det, det är en smaksak som man inte kan bevisa.

Att jämföra ett **70 kort med ett **80 kort innebär naturligtvis att du får mer prestanda för pengarna pga. diminishing returns.

Jämför istället två kort som är närmare varandra. 1080 kostade $600 vid launch, 2080 kostade $800 vid launch. Om pris/prestanda skulle vara samma, 2 år senare, skulle 2080 prestera med en faktor av 1,33. 2080 var dock endast 1,27 gånger snabbare, vilket innebär sämre pris/prestanda utveckling.

Har använt priser från wikipedia och benchmarks från passmark.

Får jag också cherrypicka kort att jämföra så väljer jag ett Titan RTX mot ett 1060, då har ju pris/prestanda gått ner rätt rejält.

Pris/prestanda har gått ner senaste generationerna, tyvärr, punkt och pricka.

Permalänk
Medlem
Skrivet av Sveklockarn:

NVIDIA A100 for PCIe
Max TDP Power 250W
https://www.nvidia.com/en-us/data-center/a100/

Det kommer inte bli några 400W-kort.

Jo, men se på kylaren på pcie-versionen.
Det är ju klart och tydligt ett 7nm kapabelt att pressa minst 400W i grunden (i HGX-kortet med identiska specs), som om man kör pci-e-varianten med svag/liten kylare också är svagare än HGX.
3090 har en mycket fetare kylare, och kommer antagligen vara betydligt högre klockat (samtidigt har det mindre minne, men är 8nm, istf 7nm).
mellan 3-400W är nog inte konstigt om det drar, och 400 eller mer överklockat. Vi får se snart nog

Permalänk
Medlem
Skrivet av JBE:

Jo, men se på kylaren på pcie-versionen.

Dimensionerna är överdrivna av vinkeln på bilden, såhär blir det justerat för PCIe-kontakten:

Skrivet av JBE:

Det är ju klart och tydligt ett 7nm kapabelt att pressa minst 400W i grunden (i HGX-kortet med identiska specs), som om man kör pci-e-varianten med svag/liten kylare också är svagare än HGX.

Det är en helt annan hårdvara med riktigt feta nätverksinterface inbakade, där switcharna som hanterar datan mellan GPUerna behöver lika stora kylflänsar som GPUerna. PCIe-versionen av A100 har 250W TDP, och det skulle den omöjligt kunna ha om själva beräkningskraften hängde ihop med det höga TDP-värdet.

Skrivet av JBE:

3090 har en mycket fetare kylare, och kommer antagligen vara betydligt högre klockat (samtidigt har det mindre minne, men är 8nm, istf 7nm).
mellan 3-400W är nog inte konstigt om det drar, och 400 eller mer överklockat. Vi får se snart nog

Det är ett stort kort på bilderna, men några andra slutsatser kan man nog knappast dra i nuläget.

Permalänk
Medlem
Skrivet av mellanslag:

Att jämföra ett **70 kort med ett **80 kort innebär naturligtvis att du får mer prestanda för pengarna pga. diminishing returns.

Jämför istället två kort som är närmare varandra. 1080 kostade $600 vid launch, 2080 kostade $800 vid launch. Om pris/prestanda skulle vara samma, 2 år senare, skulle 2080 prestera med en faktor av 1,33. 2080 var dock endast 1,27 gånger snabbare, vilket innebär sämre pris/prestanda utveckling.

Har använt priser från wikipedia och benchmarks från passmark.

Får jag också cherrypicka kort att jämföra så väljer jag ett Titan RTX mot ett 1060, då har ju pris/prestanda gått ner rätt rejält.

Pris/prestanda har gått ner senaste generationerna, tyvärr, punkt och pricka.

2070S ligger nära 1080Ti i prestanda, var största anledningen till att jag valde just det. 2070S har också en storlek på 545mm^2 medan 1080Ti är på 471mm^2. Bägge korten släpptes också ett tag efter att serien hade lanserats, så de blivit optimerade etc.

Permalänk
Medlem
Skrivet av mellanslag:

2080 kostade $800 vid launch.

$699

Permalänk

My bad, stämmer bra, i så fall är price/performance upp hela 8,8% på drygt 2 år.

Edit: samma beräkning på 1080 ti mot 2080 ti ger en price/performance minskning på 16%, så price/performance ser olika ut beroende på modell. Det finns nog ingen enkel sanning att det blir varken bättre eller sämre.

Permalänk
Medlem
Skrivet av oceanic:

Ingen grafikkortstillverkare idkar välgörenhet med sina produkter fast många här tror motsatsen, de båda stora inom segmentet är här för att tjäna pengar som alla andra företag och har man bästa grejerna så tar man betalt. När det gäller användningsområden finns det många fler än spel men det finns inget som gör en processor riktad mot vanliga användare värd 50k oavsett vem som tillverkar den såvida den inte används till ren affärsverksamhet, detta stoppar naturligtvis inte många här att klaga på sänkta priser hos konkurrenten då denne inte förmår leverera bättre prestanda. Spelkonsoler är billigare av flera anledningar och säljs som oftast till underpris (förlust) att sedan ta hem vinsten (överpris) på annat runt omkring vilket inte fungerar på komponent marknaden så det går inte riktigt att jämföras med.

idkar välgörenhet? Kan du nämna någon i den här tråden som tror det? Måste det va välgörenhet om dom tar rimliga priser för sina produkter? Menar du att du inte tror Nvidia och AMD gör sjuka pengar på bekostnad av konsumenten? För som du skriver så låter det som att allt under 15 k är välgörenhet och orimligt att tycka det är för dyrt. Jag tror dom skulle kunna sälja korten för hälften och fortfarande gå plus med marginal.(som de gjort på tidigare serier)

Ser att det är fler än jag som tycker priserna är för höga. Du är nog en del av minoriteten som tycker priset verkar vettigt.

Berätta gärna vad tanken med grafikort är om det inte mestadels är för gaming?Då går absolut att jämföra ett grafikort med en konsol dom dom oftast har samma syfte, att spela spel med. Som de flesta kommer använda 3090 till.

Jag säger inget om att det får kosta men att du kan få samtliga konsoler till ett pris under vad Nvidias toppkort kommer kosta är Absurt. Lägg därtill att du måste ha övriga komponenter som måste köpas till pc så ser du att argumentet om annar runt omkring konsolerna jämnar ut sig rätt snabbt.

Börjar nästan få känslan att du trollar för att få en reaktion då du tar exempel som CPUer för 50 k, inte går att jämföra med konsoler pga användningområde etc.

Köp du ditt 3090 för 15-17k. Jag kommer inte göra det.

Permalänk
Testpilot

Bryr mig varken om effektförbrukning eller storlek, enda som är relevant för mig är pris/prestanda när jag väljer att göra en uppgradering.

Kylning är sällan ett problem (finns enstaka undantag - stirrar på dig SLi 780) och har haft väl dimensionerade nätagg i varje bygge jag gjort.

Enda som potentiellt skulle suga är om 3070/3080 korten också kommer kräva den nya 12-pinnaren och det inte finns möjlighet med adaptrar...

Visa signatur

R < ROG G17 | R9 5900HX | 32GB 3200 MHz | RTX 3070 >

G < R9 5900X | 32GB 2666MHz | ROG RTX 3090 Ti >

B < RK96 | Leobog Hi75 | Deathadder V2 Pro >

Permalänk
Medlem
Skrivet av ddelin:

Lite äpplen och päron jämförelse här, utgår från att det är Threadripper du menar "inom entusiast segmentet". Den dyraste varianten ligger på 42K, vilket ju är hysteriskt mycket om kundgruppen hade varit vanliga konsumenter/entusiaster, vilket det inte är.
Nvidia 3xxx serie säljs till dom som spelar spel och inte tjänar en spänn på det, medan Threadripper och liknande säljs primärt till folk som tjänar pengar på att använda sin dator. Det är en väsentlig skillnad när man avgör vad som är dyrt eller prisvärt.

Att lägga 15K på ett grafikkort skulle aldrig falla mig in oavsett vad det har för prestanda, datorspel är helt enkelt inte så viktigt för mig.

Introduktionspriset var 48K plus rejäl investering på moderkort och få om ens någon egenföretagare lovsjöng dess prisvärdhet på det här forumet när den lanserades. När det gäller grafikkort och vad de används till verkar du glömt vad som drev upp priserna de senaste åren och det var inte till spel.

Visa signatur

CPU: Intel i9-12900K Cooler: Asus TUF Gaming LC 240 ARGB MB: Asus TUF Gaming Z690 Plus Wifi D4 GPU: Asus TUF GeForce RTX 3080 Ti 12GB Case: In Win D-Frame HD: Intel Optane 900P 280GB, WD Black SN850 1TB Mem: Kingston Fury Beast RGB 3600MHz CL17 32GB PSU: Corsair AX760 OS: Win11 Pro

Permalänk
Medlem
Skrivet av mellanslag:

1080 kostade $600 vid launch,

Fick leta lite, men 1080 FE kostade också $699.

Att priset gått upp såpass lite som $100 på nästan 2½ år (27/5 2016 till 20/9 2018) är ju inte så illa, särskilt inte när ett 2080 sopar banan med ett 1080.

Permalänk
Medlem
Skrivet av Sveklockarn:

Fick leta lite, men 1080 FE kostade också $699.
https://i.imgur.com/JqUDZO9.jpg

Att priset gått upp såpass lite som $100 på nästan 2½ år (27/5 2016 till 20/9 2018) är ju inte så illa, särskilt inte när ett 2080 sopar banan med ett 1080.

Finns en vit elefant i det rummet som släpptes den 10/3 2017 för $699.

Permalänk
Medlem
Skrivet av oceanic:

Introduktionspriset var 48K plus rejäl investering på moderkort och få om ens någon egenföretagare lovsjöng dess prisvärdhet på det här forumet när den lanserades. När det gäller grafikkort och vad de används till verkar du glömt vad som drev upp priserna de senaste åren och det var inte till spel.

Kundgruppen som köper enterprise grejor hänger knappast i ett sånt här forum, så det är liksom ingen måttstock. Kan du öka din produktivitet med 50 eller 100% på jobbet tar det inte lång tid att tjäna igen en 100kkr investering.

Om det är mining du menar drev det helt klart upp dom faktiska priserna man fick betala under den perioden, men även Nvidias (och AMDs) MSRP stiger för varje generation. När Nvidia släppte den överprisade 2000 serien var väl knappast mining så hett, men MSRP ökade iallafall.

Permalänk
Medlem

Räknade på måtten lite utifrån bilden. Referenskortet är 215 pixlar brett (116 mm), "3090"-kortet är 260 pixlar brett, vilket borde innebära att det är ca 140 mm brett.

Mitt Asus 980 Ti Strix DC3 OC jag hade tidigare mätte L305 x B152,2 x H39,8 mm, tog dock bara upp två slots. Om detta är toppkortet i 30-serien så är det ändå mindre än toppkortet från en av de populärare tredjepartstillverkarna i 900-serien, och det fick ju folk in i sina chassin.