Nvidia avtäcker Geforce RTX 4000 och arkitekturen "Ada Lovelace"

Permalänk
Medlem
Skrivet av Nautilus011:

Är väl inte så att DLSS 3 är knuten till 4000 serien, snarare så att det finns funktioner i DLSS 3 som inte kan nyttjas av 2000/3000 serien på grund av det saknas hårdvarustöd.

Ungefär som att mixa USB standarder, du får inte USB 3.1 gen2 prestanda om du kopplar in en usb 3.0 hubb även om den sitter i ett 3.1 gen 2 port.

Hårdvarustöd finns på 3000 serien också, bara att DLSS3 är kraftigt optimerat på 4000-serien. nVidia säger att deras kunder hade känt att "DLSS3 blir laggigt och ospelbart på gammal hårdvara". Någon länkade tweeten tidigare, minns inte exakt när.

Skrivet av gashemi:

Jäkla fult med två 4080, vill dom medvetet lura kunder. 12GB versionen är ju mer ett xx70 klass kort med 192-bit minnesbuss. Men det framgår inte bara att det har mindre minne. Så det riktiga 4080 kostar 1200 dollar, jisses vad blir det i kronor liksom 15-16000.

Folk verkar ense om att 4080 12GB är ett medvetet drag från nVidia för att rättfärdiga det höga priset på 4080 16GB (sexton jävla tusen). Hade det skrivit 4070 istället hade 16k SEK känts väldigt dyrt men nu när det finns en "lillebror" som "bara" kostar tolvtusen så känns gapet upp till 16GB versionen inte lika stor.

Visa signatur

Stationär: AMD Ryzen 7 7800X3D | ASUS ROG Strix B650E-F Gaming WIFI | G.Skill 32GB DDR5 6000MHz CL30 Trident Z5 Neo RGB | Gigabyte 4090 Gaming OC | BeQuiet! Dark Rock 4 Pro | Samsung 980 Pro 1TB M.2 & Intel 660P 1TB M.2 | Corsair RM850x v2 White Series | Phanteks P500A D-RGB | Acer X34GS | Corsair Strafe RGB MX Silent | Razer Deathadder v.2 | Logitech PRO X 7.1
Laptop: AMD Ryzen 7 6800HS | 16GB 4800MHz DDR5 | RTX 3060 140W | 15,6" 144Hz FHD IPS 16:9

Permalänk
Medlem
Skrivet av ronz:

Jag hade tänkt att uppgradera till 13700K, DDR5 och 4080.
Men nya 4080 ser inte ut att vara värt pengarna.
För att inte tala om hela kostnaden för totala uppgraderingen …

Jag hade tänkt något liknande, eventuellt ddr4, i samband med Asus nya 48".

Jag tror jag lägger ner dom drömmarna 😁

Permalänk
Medlem

Jag köpte precis en 3080 12 gb för 7400. Övervägde att utnyttja öppet köp men vet inte riktigt om är värt det när man ser de här siffrorna.

Permalänk
Medlem
Skrivet av Jonas13:

Jag köpte precis en 3080 12 gb för 7400. Övervägde att utnyttja öppet köp men vet inte riktigt om är värt det när man ser de här siffrorna.

Nytt eller begagnat?

Permalänk
Medlem
Skrivet av Maaxan:

Nytt eller begagnat?

Nytt.

Permalänk
Medlem
Skrivet av High1ander:

Även om det lite är så, så jämför med t.ex. PS5. Den fanns ju inte ens att få tag i, den finns väl knappt nu att få tag?

Senaste två åren har ju varit helt sabbade av utbudet varit för lågt på både PS5 och grafikkort. Hur löser man det utan att jävlas med sina kunder?

A: Säljer man grejerna för billigt och utbudet är för lågt så får man scalpers.

B: Säljer man dyrt för utbudet är låg så får man det iaf. till dom kunder som tycker det är värt det och man själv eller sina partners tjänar mer.

Jag tycker ju alternativ B är bättre även om det är inget jag vill se.

Sen för att sätta lite kontext och relation på det hela. När jag växte upp så var mellansegmentet det enda som fanns som alternativ i budget, dvs. xx50 till xx60, och de räckte för mer eller mindre allt. Då fanns det inte heller en massa optimeringar som det gör idag.

Nu kan man få bra spelupplevelser på 2000-serien och 3000-serien. Man måste inte köra 4K eller 8K även om ens TV stödjer det.

Det har sedan länge passerat en nivå där det mer handlar om nörderi/perfektionism att få spel att köras i galna upplösningar och hastigheter. Jag själv satt på 4-25 FPS i CS 1.0 förut, de fanns inte några mer "optimeringar" jag kunde göra.

Självklart utvecklas saker och krav ändras. Men grafik är inte en mänsklig rättighet, och skulle det vara det så är vi redan långt långt över kravet. Poängen är lite att om du är proffs så kan du tävla på i princip 2000 serie eller 3000 serie i alla spel mer eller mindre. Det är inte som bilar där dom som sitter med bästa motorn automatiskt vinner mot någon som är 1-2 generationer bakom. Dvs. kommer inte vara något "nej, jag fick aldrig chansen att bli proffs, för jag var fast på 2060ti och fick bara 118 fps, så det flöt på för dåligt"... Eller, det kanske är en idiot som säger så, men det är inte den biten som stoppar.

Ja alternativ B är helt klart att föredra. Dock handlar det ju egentligen om betydligt större efterfrågan på grafikkretsar idag än för typ 5-10 år sedan och tidigare. På den tiden var väl gamers den enda kundgrupp som efterfrågade högpresterande grafikkretsar i större volymer och därmed gick större delen av utbudet till dem och deras prisacceptans blev avgörande för prissättningen. Idag efterfrågas hög GPU-prestanda av många fler kundgrupper (som t ex cryptominers, content creators, folk som sysslar med GPU-compute osv) utöver gamers. Dessa grupper är också delvis eller fullt professionella och har därmed en helt annat prisacceptans. Hade hela utbudet som finns tillgängligt idag fortfarande gått till gamers hade prissättning garanterat varit en annan.

Nvidia vet om att de har råd att testa smärtgränserna rätt ordentligt för vad gamers är beredda att betala, för ifall det skiter sig så har de andra högbetalande kundgrupperna att styra om wafer-allokeringen till. Det är såklart en tråkig utveckling för gamers och även om den här utveckling som allt annat går i vågor och att framtiden därför delvis kan bringa lättnader för gamers så är det här nog en verklighet man får va beredd att acceptera tyvärr.

Visa signatur

Asus P6X58D-E || Intel Core i7-930 || Corsair H50 || 3x4GB Crucial Ballistix Elite 1866MHz CL9 || Sapphire R9 390 Nitro 8GB || Sandisk Extreme II 2x120GB RAID 0 || Antec P183, 4 st Chassifläktar || Antec True Power 650W || ASUS VG248QE

Permalänk
Medlem
Skrivet av Sveklockarn:

Ska bli intressant att se hur korten presterar i traditionell rastrering då det är den prestandan jag kollar på när jag bestämmer om jag ska köpa ett nytt kort. De visade t.ex. upp MS Flightsim med dubbla FPSen när de använde DLSS 3.0, vilket är ett totalt ointressant scenario för min del såvida de inte åstadkommit någon typ av magi som tar bort alla artefakter som kommit med DLSS hittills.

Jag tror tyvärr inte de artefakterna du upplever försvinner. DLSS 3 är ett tillägg ovanpå DLSS 2. Om man kollar på flödesschemat för DLSS 3 verkar de "game frames" som de använder för att prediktera nästa "påhittade" bild, komma från de som genereras av DLSS 2 först. Uppskalningen från DLSS 2 ligger alltså i botten, sen tar man de uppskalade DLSS 2-bilderna och predikterar en bild, så ev artefakter från DLSS 2 kommer isf också att predikteras.

"Shader Execution Reordering" som Jensen i GTC-videon beskriver som "SER is as big an innovation as...", det ser ut att vara exakt samma princip bakom Intels "Thread Sorting Unit" som redan används i Arc. Märkligt att inte fler drar paralleller? Kanske Jensen inte heller har pejl på att Intel redan har det Nvidia har "uppfunnit"?

Permalänk
Medlem
Skrivet av BostonGurkan:

Tror detta blir spiken i kistan för min spelhobby tyvärr. Kommer nog köra mitt 5700xt i graven och hålla mig till hobbies som inte sett i närheten av samma prispåslag senaste 2 åren.

Genuint intresserad, vad har du för hobbies som inte kostar 3 - 5 tusen kronor/år

Visa signatur

Skärm: Acer XB271 HU, Keyboard: Corsair k95
Moderkort: Asus Prime-A Z690, GPU: RTX 4080
CPU: Intel i7 13700k, Ram: 32Gb DDR5 6000Hz
Chassi: Lian Li Lancool 3, Högtalare: ALTEC LANSING 5.1 THX
Disk 1: WD 850x 1Tb, Disk 2: WD 850x 2Tb,PSU: Seasonic Prime 1000w

Permalänk
Medlem
Skrivet av perost:

450W som 4090 ligger på är ändå galet högt, det vara bara 3090 Ti som låg så högt förra generationen och det var ju onödigt högt klockat (30% högre strömförbrukning än 3090 men bara ~10% bättre prestanda). De kort vi sett i 4000-serien än så länge är också avsevärt högre klockade än något av Nvidias tidigare grafikkort, så att säga att de är lågt klockade är lite underligt. AMD kanske kommer klocka ännu högre, men de brukar ofta köra på högre klockfrekvenser.

finns ju flertal aib rtx 3080 kort å så som oxå ligger på 450w som strix kortet bla dvs de med 3st 8pinns kontakter, ska man ha ett ampere kort å kunna klocka massa eller flasha in högwatts biosar så ska man ha dessa fabulösa 3x8 pcie kontakts korten.

tbh 3090(ti) medförde eg inget nytt.

Visa signatur

12700k@/7200c34@7800/msi z790 itx

Permalänk
Medlem
Skrivet av EntropyQ3:

Ja, det är ju mycket billigare än havskappsegling och galopphästar!

Prislappen spelar naturligtvis roll för marknadens volym. PC-spelande står för en fjärdedel ungefär av gaming marknaden, (mindre del om man bara betraktar mjukvaran dvs de faktiska spelen). Och förra generationens kort har svårt att nå upp till 10% på Steams hardware survey (beror på hur man räknar in low end laptops). Det är inte så konstigt att nvidia måste sponsra inkluderande av deras nya features i ett litet antal spel, volymen som de representerar är inte signifikant nog för att det skall hända av egen kraft.
Givet prisutvecklingen är det svårt att se att volymen kommer att öka.

Behöver väl inte vara så extremt som havskappsegling, eller hästar.
Spela fotboll 3-6tkr/år
Simning 6tkr/år
Hockey 10.000+/år

Så min systerdotter ligger under en 3 års period ca 18tkr för 1 hobby.
Så om hennes bror då köper ett grafikkort för 18tkr som håller 3-5 år så är kostnaden över tid inte någon större skillnad.

Visa signatur

Skärm: Acer XB271 HU, Keyboard: Corsair k95
Moderkort: Asus Prime-A Z690, GPU: RTX 4080
CPU: Intel i7 13700k, Ram: 32Gb DDR5 6000Hz
Chassi: Lian Li Lancool 3, Högtalare: ALTEC LANSING 5.1 THX
Disk 1: WD 850x 1Tb, Disk 2: WD 850x 2Tb,PSU: Seasonic Prime 1000w

Permalänk
Medlem

När släpps embargot så man kan se hur de nya korten presterar på riktigt? Vill ha ett kort som kör 4k max med RTX i allt mellan 90 och 144 fps 😀 tror ni vi kommer få det?

Permalänk
Skrivet av Nautilus011:

Behöver väl inte vara så extremt som havskappsegling, eller hästar.
Spela fotboll 3-6tkr/år
Simning 6tkr/år
Hockey 10.000+/år

Så min systerdotter ligger under en 3 års period ca 18tkr för 1 hobby.
Så om hennes bror då köper ett grafikkort för 18tkr som håller 3-5 år så är kostnaden över tid inte någon större skillnad.

Sen räcker det ju inte att bara köpa ett grafikkort för att ha datorspel som hobby.

Permalänk
Medlem
Skrivet av Nautilus011:

Behöver väl inte vara så extremt som havskappsegling, eller hästar.
Spela fotboll 3-6tkr/år
Simning 6tkr/år
Hockey 10.000+/år

Så min systerdotter ligger under en 3 års period ca 18tkr för 1 hobby.
Så om hennes bror då köper ett grafikkort för 18tkr som håller 3-5 år så är kostnaden över tid inte någon större skillnad.

Förutom då att du får lägga till de framtida kostnaderna som ohälsa pga fysisk inaktivitet i unga år kan leda till på äldre dagar. Kanske borde det stå varningar på grafikkort precis som på cigarettpaket: "Gaming can seriously injure your health". Fast jag tror ju på att blanda olika hobbies, och att även gamers har fler aktiviteter, som att de är ute och springer, simmar, spelar trumpet. Ja, också det sista är en fysisk aktivitet, och social, och en trumpet håller mer än 3-5 år också. Kanske ett tips att varva med?

Permalänk
Medlem

Känns ganska meningslöst byta till nått av dessa kort egentligen om man sitter med 3080 eller 3090. Dom processorer vi sett hitintils lanseras blir rejäl flaskhals till 4080 samt 4090. Vad får man om man då ex sitter med 11190k eller liknande. Troligen nära Zero högre prestanda

Permalänk
Medlem
Skrivet av Born_HardCORE:

Ja alternativ B är helt klart att föredra. Dock handlar det ju egentligen om betydligt större efterfrågan på grafikkretsar idag än för typ 5-10 år sedan och tidigare. På den tiden var väl gamers den enda kundgrupp som efterfrågade högpresterande grafikkretsar i större volymer och därmed gick större delen av utbudet till dem och deras prisacceptans blev avgörande för prissättningen. Idag efterfrågas hög GPU-prestanda av många fler kundgrupper (som t ex cryptominers, content creators, folk som sysslar med GPU-compute osv) utöver gamers. Dessa grupper är också delvis eller fullt professionella och har därmed en helt annat prisacceptans. Hade hela utbudet som finns tillgängligt idag fortfarande gått till gamers hade prissättning garanterat varit en annan.

Nvidia vet om att de har råd att testa smärtgränserna rätt ordentligt för vad gamers är beredda att betala, för ifall det skiter sig så har de andra högbetalande kundgrupperna att styra om wafer-allokeringen till. Det är såklart en tråkig utveckling för gamers och även om den här utveckling som allt annat går i vågor och att framtiden därför delvis kan bringa lättnader för gamers så är det här nog en verklighet man får va beredd att acceptera tyvärr.

Precis, effekten av att GP-GPU blivit så lyckat i andra segment än just spel gör så att företag som nvidia eventuellt ändrar sin "kärnverksamhet" bort från spel och mer till just GP-GPU som utveckling, miners, teknikbolag, etc. Roligast vore ju om det fanns Wafers och fabriker för att tillgodose alla, men som vi vet är det just nu ett race på tillverkning där alla behöver större volymer. Som företag vore det idiotiskt att då inte satsa på det som har störst framtidspotential och drar in mest pengar.

Jag själv köper ju endast dessa highend-kort för det funkar för mitt jobb, annars så hade jag fått nöja mig med ett 4060 eller liknande för endast privat bruk. Där tycker jag också som så att xx60 är bra kort, allt över det är bara lyx i olika nivåer. xx60 har oftast varit det som gett mest prestanda per krona. Så länge xx60 inte är hutlöst prisatt (som det var under pandemin) så tycker jag saker är OK. Det är inga andra marknader där man kräver 30-50% ökning vartannat år för samma peng. Men grafikkort är så bortskämt med utveckling där man anser att universum sviker en om man inte får det senaste och bästa till samma priser som för 10 år sen. -Det sagt så tycker jag verkligen inte att nvidia är ett "fint" företag och att de hanterar saker på bästa sätt, men bara att man kan inte blunda för verkligheten.

Visa signatur

There can be only ONE...

Permalänk
Skrivet av Clasito:

Intressant, tack!

Har uppdaterat min tabell med preliminära siffror från nVidia:

17% högre prestanda och $200 högre MSRP än ett 3080 kändes inget vidare 😕

Undrar vad det är som gör att 16gb modellen är så pass mycket kraftfullare, måste vara mycket mer än bara minnesmängden som skiljer sig där...

Permalänk
Medlem
Skrivet av Japanesen:

Undrar vad det är som gör att 16gb modellen är så pass mycket kraftfullare, måste vara mycket mer än bara minnesmängden som skiljer sig där...

16GB-modellen har 27% fler kärnor men aningen lägre klockfrekvens. Det är i själva verket större skillnad mellan 4080 16GB och 12GB än mellan 3090 Ti och 3080.

Permalänk
Medlem

Är det för mycket att önska och hoppas att folk inte köper korten, åtminstone inte i en större utsträckning? Det finns inte på min karta att jag betalar de här summorna, och jag kände lika med 3xxx-serien.

Permalänk
Medlem
Skrivet av perost:

16GB-modellen har 27% fler kärnor men aningen lägre klockfrekvens. Det är i själva verket större skillnad mellan 4080 16GB och 12GB än mellan 3090 Ti och 3080.

Såklart att det är större skillnad, det är inte bara färre kärnor, det är två helt olika GPU-dies. 4080 16GB har AD103 och 4080 12GB har AD104(alltså motsvarande RTX3070 GA104). AD104 är en rejält mindre krets än AD103, det fanns en GA103 också men Nvidia släppte den aldrig till konsument utan RTX3080 fick samma stora GA102 som 3090Ti har. Men med färre kärnor. Därför skillnaden är mindre RTX3080 -> RTX3090Ti, olika versioner av samma krets.

Förutom kärnor så är det olika antal RT-cores och Tensor-cores mellan dessa olika dies, och dessutom olika minnesbuss. 16GB har 256-bit medans 12GB bara har 192-bit. Det är mindre än RTX3070. Så. ja, prestanda ska skilja rätt mycket mellan dessa. Därför det är så sjukt att båda heter 4080.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem
Skrivet av Anilusion:

Sen räcker det ju inte att bara köpa ett grafikkort för att ha datorspel som hobby.

Ok då, för att fylla ut mitt konkreta exempel :/

Min systerdotter har två hobbies, simning och fotboll.
Simningen kostar 18tkr (om inte mer) på 3 år.
Fotbollen kostar också 18tkr på 3 år.
Totalt 36tkr
Hennes bror som har PC spelande som hobby.
Köper ett grafikkort för 18tkr och övriga datorkomponenter för 18tkr.
Samma kostnad över 3 år.
(en dator för 36tkr klarar man sig väldigt bra på för under ett antal år)

Visa signatur

Skärm: Acer XB271 HU, Keyboard: Corsair k95
Moderkort: Asus Prime-A Z690, GPU: RTX 4080
CPU: Intel i7 13700k, Ram: 32Gb DDR5 6000Hz
Chassi: Lian Li Lancool 3, Högtalare: ALTEC LANSING 5.1 THX
Disk 1: WD 850x 1Tb, Disk 2: WD 850x 2Tb,PSU: Seasonic Prime 1000w

Permalänk
Medlem

De skulle döpt lilla 4080 till 4070 bara så hade det varit logiskt och helt rimligt (förutom priset då). Men de fattar väl själva att ingen vill betala 900$ för ett xx70 kort. Typiskt fult marknadsföringstrick att döpa det till xx80.

Visa signatur

Rigg: Intel i7 4790K @ 4,7 GHz delid | Noctua NH-U12S | Asus Z97-A | Corsair 2x4+2x8 GB 2133 MHz DDR3 RAM | EVGA RTX 2080 XC Ultra GPU | Intel SSD 2x 800 GB | Acer Predator XB271HU IPS skärm | M-Audio AV42 monitorer | HyperX Cloud 2-lurar | HyperX Pulsefire FPS mus

Permalänk
Medlem
Skrivet av bopp:

Förutom då att du får lägga till de framtida kostnaderna som ohälsa pga fysisk inaktivitet i unga år kan leda till på äldre dagar. Kanske borde det stå varningar på grafikkort precis som på cigarettpaket: "Gaming can seriously injure your health". Fast jag tror ju på att blanda olika hobbies, och att även gamers har fler aktiviteter, som att de är ute och springer, simmar, spelar trumpet. Ja, också det sista är en fysisk aktivitet, och social, och en trumpet håller mer än 3-5 år också. Kanske ett tips att varva med?

Ja det där är en rätt intressant diskussion det också.
Bara se på våra äldre med deras krämpor och fysiska besvär, trots att dom troligtvis hade det mer fysiskt tungt i både arbete och fritid. Så frågan är kommer vi (framtidens åldringar) som är "soffpotatisar" och hellre spenderar 10 timmar framför datorn än att springa 5km, må sämre?
Jag har fd skolkamrater som idrottade och levde ett aktivt liv som unga men som nu både är halta och lytta på grund av idrottsskador. Medans jag föredrog att spela på datorn eller lira DnD med vänner inte har några idrottskador.

Visa signatur

Skärm: Acer XB271 HU, Keyboard: Corsair k95
Moderkort: Asus Prime-A Z690, GPU: RTX 4080
CPU: Intel i7 13700k, Ram: 32Gb DDR5 6000Hz
Chassi: Lian Li Lancool 3, Högtalare: ALTEC LANSING 5.1 THX
Disk 1: WD 850x 1Tb, Disk 2: WD 850x 2Tb,PSU: Seasonic Prime 1000w

Permalänk
Medlem
Skrivet av Japanesen:

Har uppdaterat min tabell med preliminära siffror från nVidia:

Fin tabell, men förbättringsförslag: kan man inte låta den även räkna ut den procentuella prishöjningen från generation till generation också, så man kan jämföra den rakt av med prestandahöjningen?

Och nyfiken: vad använder du som bas för prestandan?

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk
Medlem

Så, nVidia rekommenderar en 850W PSU till 4090 och inte en 1000W PSU som verkar rekommenderas till 3090Ti. Hur bör man tänka där egentligen?

Visa signatur

Stationär: AMD Ryzen 7 7800X3D | ASUS ROG Strix B650E-F Gaming WIFI | G.Skill 32GB DDR5 6000MHz CL30 Trident Z5 Neo RGB | Gigabyte 4090 Gaming OC | BeQuiet! Dark Rock 4 Pro | Samsung 980 Pro 1TB M.2 & Intel 660P 1TB M.2 | Corsair RM850x v2 White Series | Phanteks P500A D-RGB | Acer X34GS | Corsair Strafe RGB MX Silent | Razer Deathadder v.2 | Logitech PRO X 7.1
Laptop: AMD Ryzen 7 6800HS | 16GB 4800MHz DDR5 | RTX 3060 140W | 15,6" 144Hz FHD IPS 16:9

Permalänk
Medlem
Skrivet av Mocka:

Så, nVidia rekommenderar en 850W PSU till 4090 och inte en 1000W PSU som verkar rekommenderas till 3090Ti. Hur bör man tänka där egentligen?

Dom vill väl att man skall köra agg med den nya kontakten till RTX4090, ett sånt 850W kanske motsvarar ett normalt 1000W på 12V linan.
Kan ju också vara så att dom inte vill att man har för kraftiga grejor så att kontakterna smälter, bättre att agget stänger av ....

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem
Skrivet av Eldarion:

Är det för mycket att önska och hoppas att folk inte köper korten, åtminstone inte i en större utsträckning? Det finns inte på min karta att jag betalar de här summorna, och jag kände lika med 3xxx-serien.

De får gärna köpa på som fan så kan jag köpa ett begagnat 3080.

Permalänk
Medlem
Skrivet av Nicklidstrom:

De får gärna köpa på som fan så kan jag köpa ett begagnat 3080.

Haha, men håller du inte med om att det vore bättre att prissättningen får sig en reality check på lite längre sikt än att du får tag på ett beggat 3080 till ett förmånligt pris här och nu? Det faktum att folk varit beredd att betala de här hutlösa summorna har ju bara gett företag som Nvidia vatten på sin kvarn. Det finns verkligen noll incitament till att sänka priserna om det finns en tillräcklig efterfrågan.

Permalänk
Medlem
Skrivet av Dinkefing:

Varför står priserna på RTX 3080 serien stilla? Hur förväntar sig svenska ÅF att sälja ut dem om de fortfarande ligger norr om 10 tusen?

För att de kommer sälja korten med förlust.

Permalänk
Medlem
Skrivet av Mocka:

Så, nVidia rekommenderar en 850W PSU till 4090 och inte en 1000W PSU som verkar rekommenderas till 3090Ti. Hur bör man tänka där egentligen?

Betyder bara att Nvidia har fått ordning på de absurda strömspikarna på de största GPUerna in 3000-serien. Med lite bättre kontroll på detta kan man krympa nätenheten.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av Japanesen:

Intressant, tack!

Har uppdaterat min tabell med preliminära siffror från nVidia:

https://i.gyazo.com/e6231201eeaaacc04e2bd72de0caa5e7.png

17% högre prestanda och $200 högre MSRP än ett 3080 kändes inget vidare 😕

Undrar vad det är som gör att 16gb modellen är så pass mycket kraftfullare, måste vara mycket mer än bara minnesmängden som skiljer sig där...

MSRP efter 980 kan man ju dock sätta citattecken runt, redan för 1080 var den lägre nivån tveksam eftersom det knappt tillverkades kort för den prisnivån. Dom "billiga" 1080 som kom något nära lanseringen låg 50USD över den lägre MSRP nivån, och den flesta matchade den övre. Samma gäller för 699USD för 3080, visst nvidia sålde en del kort, men till och med TUF-kort och andra liknande var så prispressade kort att tillverkarna inte ens ville göra dom, hade ordinare prislapp på 749 efter nvidia-rabbaten gått ut (inte för att dom såldes för det heller). Nä deras dubbla MSRP med ett "från" pris har varit skit sen dag ett och borde inte användas som nivå för MSRP eftersom ingen antingen inte hade intresse eller för att det inte var ekonomiskt rimligt att tillverka kort för det priset. Inte ens nu när det tydligen ska vara överlager av 3080 säljer nvidia några kort för 699.

Ursäkta rant, men det där med defus prissättning är bland det drygaste Nvidia sysslat med, fram tills nu då med dubbla 80-kort Och för att svara på din fråga, det verkar vara så tokigt att det sitter helt olika kretsar i korten, AD103 i 16GB och AD104 i 12GB.