Nya erbjudanden i Komplett Geek Week

Rykte: Nvidia Geforce RTX 4080 får samma effektuttag som RTX 3080

Permalänk
Medlem
Skrivet av Streamdog:

Är det fler än jag som förundras lite över att det skiljer så mycket mellan AD102 och AD103?

Full AD102 ryktas ha 144 SMs.
Full AD103 ryktas ha 80 SMs.

AD102 är alltså 80% större. Och om ryktet om att RTX 4080 använder 76 SMs av de 80 så känns det som det inte finns plats för ett 4080 Ti på AD103. Men ska de göra ett 4080 Ti på AD102 så kommer de antingen få skära bort en jäkla massa SMs eller så kommer det bli jättestort hopp till 4080 Ti.

Tänk ett RTX4080 på AD103 med 76 SMs (vilket blir 9 728 cudacores) och ett ganska mycket nedskalat 4080Ti på AD102 med, säg, 112 SMs (det blir 14 336 cudacores). Alltså nästan 50 % fler kärnor. Skär de ner AD102 ännu mer så är det riktigt trasigt kisel som kommer användas i så fall.
Tänker lite på 1080 Ti när det begav sig, det hade väl ca 35 % fler kärnor än vanilla 1080..

De kanske skippar 4080Ti-kortet och kör dyra 4090, 4090Ti, TITAN på AD102 och spelorienterade kort (4080, 4070 etc) hamnar på AD103 och AD104?

Tycker tvärtom det låter vettigt och en återgång mot hur det varit tidigare.
Nuvarande generation är ju urlöjlig, knappt någon skillnad mellan 3080, 3080Ti och 3090.

Som ett brev på posten dök det idag upp ett rykte om AD102-250 med 116 SM (20% avstängt) och 320 bit buss (20 GB minne).

Perfekt för ett 4080Ti och i linje med GA102-200 (som gick till 3080, fast 3080 egentligen borde varit baserat på GA103...men Nvidia fick väl kalla fötter pga AMD) som oxå hade ca 20% avstängt.

Faktisk prestanda beror ju sen på klockan så prestandaskillnaderna lär bli mindre än "SM skillnaden" ändå.

Permalänk
Medlem
Skrivet av Pantburk:

Har 4070 bättre prestanda än 3090 så lär ju priset bli därefter, säkert runt 20k nu när det börjar bli halvledare brist igen.

Så detta 4080 och över blir nog dyrt.

Ni vet vart ni hörde det.

Japp, det blir nog dyrt så du får nog rätt 😊.

Permalänk
Medlem
Skrivet av Kaleid:

Inga rykten om RT prestanda än från varken röda eller gröna. Det är här man vill ha största boosten

Inga specifika rykten, men vad gäller AMD så har de nämnt (på Financial Analyst Day) att skälet till de omdesignade CU var att de ville få ut mer prestanda ur raytracingen. De som jämfört AMDs och Nvidias designer pekar på att RDNA2 mer liknar Turing ur raytracing-perspektiv, så en inte alltför osannolik slutsats är att AMD siktar på en effektivitet som Ampere.

AMD har också specat (återigen, på Financial Analyst Day) att RDNA2 skall uppnå 50% bättre prestanda/watt. Jag tror inte för en sekund att AMD kan uppnå det för en så mogen teknik som rasterisering, även om de krymper till 5nm, så slutsatsen blir att de måste uppnå det genom att förbättra sig rejält på de randfall där de är som sämst. Om de just nu är sämre än Nvidia på raytracing och tar upp den tekniken två gånger i sin lilla blurb om GPUer (den är 5 meningar lång), så tror jag att de har lagt mycket krut på detta.

Lägg sedan till allt som vi redan ”vet” om antalet CU och klockfrekvensen, så kan man ana att det blir en stor skillnad.

Permalänk
Medlem
Skrivet av sKRUVARN:

Säger njae på den, det är oftast tvärtom, man ökar effektuttaget på sin produkt för att man är tvungen. Utgånspunkten lär ju vara att man vill bibehålla tidigare nivåer eftersom en ökning bara tillför nackdelar för produkten (ja förutom då potentiell prestanda).

En produkts frekvenser spikas generellt sett väldigt sent och där med också vad korten faktiskt kommer dra. Ser det inte alls konstigt att man då testar på kort dimensionerade för rätt hög effekt (dom ska ju även klara högre power limit, eventuella spikar osv också).

Ja.
Jag köpte ett TNT2 i Tyskland för en massa år sedan. Om jag inte minns fel stod det 150mhz på kartongen men kortet körde 175mhz. Då jag kontaktade Guilemot för att få min s-video kabel som fattades passade jag på att fråga. De sa att de hade fått referensvärdena och tryckt alla kartonger i förväg. Då det visade sig att korten vart snabbare än reference så ansåg de det för dyrt att byta ut kartongerna då korten ändå var snabbare än utlovat.

Permalänk
Medlem
Skrivet av Pantburk:

Har 4070 bättre prestanda än 3090 så lär ju priset bli därefter, säkert runt 20k nu när det börjar bli halvledare brist igen.

Så detta 4080 och över blir nog dyrt.

Ni vet vart ni hörde det.

Högst tveksam till att priserna kommer vara så höga. Genomsnittspriset på 380Ti och 3090Ti har gått ner med 8000kr sedan april i år. Detta pga den pågående kollapsen av cryptomarknaden. Just nu så försöker miners sälja av sina begagnade kort till vrakpriser, och många leverantörer sitter fast med överlager av 3000-kort som dom nu har fått svårt att bli av med. För en leverantör eller säljare är det en katastrofsituation att ha precis inför lanseringen av en ny generation kort.

Europa laggar efter USA lite i pristappet, idag kan du få ett nytt 3090Ti till under MSRP i USA. Situationen kommer att se likadan ut i Europa om en eller två månader. Kommer vi någonsin att komma tillbaka till tiden där man kunde få ett high-endkort för 4-6k? Högst oklart, men i framtiden kommer priserna att ligga långt under dom löjliga ockerpriserna vi haft dom senaste tre åren. Garanterat.

Nvidia och AMD kommer att försöka hålla kvar priserna på den höga nivån som varit, men jag tvivlar på att dom kommer kunna rättfärdiga det när det inte finns någon anledning för miners och scalpers att lägga beslag på allt.

Permalänk
Medlem
Skrivet av Slashgibber:

Högst tveksam till att priserna kommer vara så höga.

Högst tveksamt... Bättre tala klarspråk: Det kommer inte hända. Inte en chans.

Eller jo, det kan hända om bomberna, gud förbjude, börjar falla i Taiwan. Men då får vi nog snarare inga kort alls...och det får ändå sägas vara det minsta problemet i så fall.

Permalänk
Medlem

Vi som sitter fortfarande på z390 moderkort kommer vi behöva uppgradera vid 4000 serie tro?

Permalänk
Medlem
Skrivet av redmike:

Vi som sitter fortfarande på z390 moderkort kommer vi behöva uppgradera vid 4000 serie tro?

Det beror på hur stor bandbredd dom korten behöver, men det är högst tveksamt. 3000-serien kommer inte ens upp till maxtaket på PCIE 3, och Z390 har PCIE PCIE 4, så jag tror du sitter säkert ett tag framöver.

Permalänk
Medlem
Skrivet av Slashgibber:

Det beror på hur stor bandbredd dom korten behöver, men det är högst tveksamt. 3000-serien kommer inte ens upp till maxtaket på PCIE 3, och Z390 har PCIE PCIE 4, så jag tror du sitter säkert ett tag framöver.

Just min z390 har Gen 3 men fungerar utan problem med 3080

Permalänk
Medlem
Skrivet av redmike:

Just min z390 har Gen 3 men fungerar utan problem med 3080

Vad är fulla namnet på ditt Z390? Och vilket CPU har du?

Permalänk
Medlem
Skrivet av Slashgibber:

Vad är fulla namnet på ditt Z390? Och vilket CPU har du?

MSI z390 pro carbon, 9900K

Permalänk
Medlem
Skrivet av redmike:

MSI z390 pro carbon, 9900K

Ah, justfan, intel började inte stödja PCIE4 förrän 11-serien. Men jag tror inte att du skulle få några problem att kräma ut fullt värde av ett 4000-kort. Bäst är nog att vänta på benchmarks.

Permalänk
Medlem
Skrivet av Snabbt_o_Hårt:

Hört det viskats om nedan:

De testade AD103 kretsen med ett kort som klarade 450W, men kanske för att minnes konfigurationen (antalet minnesmoduler) skulle gå ihop med ett test kort som man redan hade.

Nvidia RTX 4080 Founders edition 350W price xxx$ (ja du läste rätt 3 st x vilket sätter ett max tak på 999USD)

PS: Partnertillverkar kort på 2x8 pin ger också maxtak på effekt (150+150+75) = 375W

Saknas bara 10W upp till 350W så nu är hans "ryktes specs" riktigt nära