Nvidia avtäcker "Hopper" – 80 miljarder transistorer och mångdubbel AI-prestanda

Permalänk
Medlem
Skrivet av IKEA Billy Bokhylla:

Dubbla prestandan för dubbla priset?

Vadå, så att vi alltså skulle få behålla nivån av prestanda per krona? Optimist...

Permalänk
Medlem

dom kommer att kosta sen kanske det blir en kraftig effekt ökning sen en obefintlig prestanda ökning typ 6 - 10 % upp skulle inte förvåna mig ....

Ärligt behöver Nvidia inte släppa nått ruggigt kort dom är ledande så dom kan tälja mer guld

Visa signatur

Låda thermaltake view 91 M-kort ASUS X399 ROG Zenith Extreme CPU AMD Ryzen Threadripper 1920X 3.5 GHz Kylning Hemma byggd vattenkylning 2 x 480mm + 1 x 420mm radiatorer Minne 8 X 16Gb DDR4 HD SSD 240GB OCZ Trion 100 Grafik Gigabyte Geforce RTX 3080 10GB GAMING OC WATERFORCE WB AGG Corsair RM 1000w 80+ Gold Skärm ASUS 43" ROG Strix XG438QR 4K VA HDR 120 Hz

Permalänk
Medlem
Skrivet av lillaankan_i_dammen:

Min åsikt baserat på hur fel folk i all tider har haft om behovet av datakraft. Folk häpnades över vad man som privatperson skulle med 100MHz cpu i sin persondator och idag har gemene person en mobil med en så kraftfull cpu som få personer kunde föreställa behovet av på deras desktop för något decennium sedan.

På 90-talet var datorer ganska begränsade.
(Men det var en ganska kul tid eftersom det hände så mycket).

Min första PC var en 486 DX2 66MHz.
Först med 4MB RAM, slutade med 32MB RAM.
Den klarade inte ens att köra Winamp och spela mp3 musik.
När jag senare skaffade en Pentium (först 133MHz, senare uppgraderade till MMX 233MHz) så klarade den det.
Skulle den klara video behövdes ännu mer prestanda. Kanske inte för video i kvalitén pixelgröt. Men säg om vi pratar om DVD kvalitet eller bättre.

Att exempelvis lyssna på musik är inte något man behöver vara en hardcore datornörd för att vilja göra.
Tar vi datorer innan 486 så var det ovanligt att PC datorer ens hade ljudkort.
Då var det oftast bara PC speaker. Kunde ge någon form av ljud, men det mesta lät bedrövligt.

På 90 talet så kändes det som att varje uppgradering gjorde stor skillnad.
Som att det jag egentligen behövde inte fanns ännu. Mitt behov var en framtidsdator.

Men kanske runt 2005-2011 någonstans så började utvecklingen komma ikapp mina behov.

Det är alltid kul att ha de senaste, häftigaste mest awesome.

Men idag när det exempelvis finns Threadripper med 64 kärnor och 2TB RAM.
Det är inget jag behöver idag.
2TB RAM är något jag kanske behöver om 10 år.

Permalänk
Medlem
Skrivet av Frux:

Vadå, så att vi alltså skulle få behålla nivån av prestanda per krona? Optimist...

Jag hoppas att prestanda per krona blir bättre med nästa generation för de som inte behöver RTX 3090 prestanda eller bättre.

Säg kort som prestandamässigt motsvarar RTX 3060 - 3080 till bättre pris.

Om exempelvis ett RTX 4060 presterar bättre än ett RTX 3070 men kostar mindre än vad RTX 3070 gör idag.

Permalänk
Medlem
Skrivet av lillaankan_i_dammen:

Osäker på om det är detta som är den verkliga begränsningen?

Verkar väl mest vara en begräsning i storlek för ett specifikt litografiinstrument om jag förstår det rätt, snarare än en fysikalisk gräns för hur stort ett chip kan vara och fortfarande fungera korrekt?

Visa signatur

I think I'll have myself a beer...

Permalänk
Medlem

Inte undra på att priserna 3000-serien faller nu, kan nog förvänta oss ett nytt pris rally igen om nu igen inte lyckas få ut tillräckligt många kort att mätta behovet på marknaden eller stoppa skalpers manipulera upp priset, om det nu är en produkt för allmänheten.

Visa signatur

CPU: Intel i9-12900K Cooler: Asus TUF Gaming LC 240 ARGB MB: Asus TUF Gaming Z690 Plus Wifi D4 GPU: Asus TUF GeForce RTX 3080 Ti 12GB Case: In Win D-Frame HD: Intel Optane 900P 280GB, WD Black SN850 1TB Mem: Kingston Fury Beast RGB 3600MHz CL17 32GB PSU: Corsair AX760 OS: Win11 Pro

Permalänk
Medlem
Skrivet av olga32:

Osäker på om det är detta som är den verkliga begränsningen?

Verkar väl mest vara en begräsning i storlek för ett specifikt litografiinstrument om jag förstår det rätt, snarare än en fysikalisk gräns för hur stort ett chip kan vara och fortfarande fungera korrekt?

Det finns nog ingen direkt hård fysikalisk gräns för hur stor en krets kan vara, utan vad man pratar om är praktiska gränser. Verktygen har som sagt sina gränser, och större kretsar är även relativt dyrare att tillverka eftersom sannolikheten att en enskild krets innehåller något fel (t.ex. p.g.a. orenheter i kislet) ökar ju större de är.

Ett annat problem är att ljusets hastighet faktiskt börjar bli en begränsning när man börjar komma upp i klockfrekvenser på flera gigaherts. Ljus färdas t.ex. bara 15 cm på en klockcykel vid 2 GHz (vilket är vad GPUer brukar ligga runt), vilket är kortare än det låter eftersom man sällan kan dra signalledningar i en rak linje. Så är kretsen för stor så kan man behöva lägga in fördröjningar eller sänka klockfrekvensen för att signaler ska hinna fram i tid.

Permalänk
Medlem

Mycket trams i tråden om att priserna ska chockhöjas, som inför åtminstone de tre senaste generationernas GeForce här på forumet. Tröttnar ni FUD-spridare aldrig på att basunera ut GPU-domedagen?

On Topic -- Ska bli kul att se vad Jensen har att säga på tisdag.

Tyvärr lär det inte bli några tekniska detaljer överhuvudtaget, och det är väl där mitt primära intresse ligger med hur de åtgärdar RTX 30-seriens energiförbrukning med de nya TSMC-kretsarna, samt vilka övriga förfiningar den nya processnoden erbjuder.

Förhoppningsvis pratar han lite om implementeringen av DirectStorage på kommande generation också.

Permalänk
Medlem

Är max villig att ge 8k för en ny generation xx80 kort så bara glömma köp för min del.

Permalänk
Medlem
Skrivet av Megacrash:

Är max villig att ge 8k för en ny generation xx80 kort så bara glömma köp för min del.

Aha, vad säger din kristallkula att det nya priset kommer bli då?

Kan ju vara intressant att veta nu när ingen annan vet.

Permalänk
Medlem
Skrivet av Sveklockarn:

Tyvärr lär det inte bli några tekniska detaljer överhuvudtaget, och det är väl där mitt primära intresse ligger med hur de åtgärdar RTX 30-seriens energiförbrukning med de nya TSMC-kretsarna, samt vilka övriga förfiningar den nya processnoden erbjuder.

Energiförbrukningen har väl ganska lite med tillverkningsprocessen att göra. Både Nvidias och AMDs senaste generation grafikkort är ju de energieffektivaste hittills (källa), att de drar mycket ström är ett medvetet val. Så bättre tillverkningsprocess kommer sannolikt inte ge oss mindre strömtörstiga grafikkort utan bara mer prestanda, eftersom det verkar vara den vägen som både Nvidia och AMD är inne på nu.

Permalänk
Medlem
Skrivet av perost:

Energiförbrukningen har väl ganska lite med tillverkningsprocessen att göra.

Jag är inte ingenjör, men ett RTX 3070 ligger i linje med vad man kan förvänta sig förbrukningsmässigt för ett kort med 70-suffix, baserat på tidigare generationers förbrukning. Att RTX 3080 behöver ytterligare 100W effekt för att komma upp till prestandanivån Nvidia ville ha tyder åtminstone på att den Samsung-producerade kretsen inte presterade så bra som de hade hoppats på, varför man fick pressa upp den med en rejält högre strömbudget.

Det är ju något av en standardlösning att vrida på strömkranen när kislet/arkitekturen är nära toppen för vilken prestanda som kan pressas ut, vilket även förklarar det lilla prestandaövertag som högre iterationer av kort ger, där Nvidia mer eller mindre fallit tillbaka på att öka upp VRAM-mängden för att rättfärdiga priset.

Skrivet av perost:

Både Nvidias och AMDs senaste generation grafikkort är ju de energieffektivaste hittills [...] att de drar mycket ström är ett medvetet val.

Tycker jämförelsen mellan AMD/Nvidia faller hyfsat platt då det inte finns några meningsfulla gemensamma nämnare för att egentligen kunna få något mått på energiförbrukningen. AMDs kort var dåliga på den punkten denna generation också, kan jag gå med på.

Skrivet av perost:

Så bättre tillverkningsprocess kommer sannolikt inte ge oss mindre strömtörstiga grafikkort utan bara mer prestanda, eftersom det verkar vara den vägen som både Nvidia och AMD är inne på nu.

Båda har åtgärdat sina smörgåsgrills-GPUer förr, så jag känner ändå att hoppet inte är ute.

Permalänk
Medlem
Skrivet av Fulci:

När han tar ut nya GPU:n ur ugnen är den direkt kopplad till spisens 3-fas.

Ja. Även om jag börjar undra om det inte är GPUn som är ugnen.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem
Skrivet av Sveklockarn:

Aha, vad säger din kristallkula att det nya priset kommer bli då?

Kan ju vara intressant att veta nu när ingen annan vet.

Jag tror nog de flesta kan va eniga om att det med stor sannolikhet kommer kosta bra mer än 8k iaf. Lite som att man behöver ingen kristalkula för veta att solen går upp imorn. Lägg sedan till scaplpers.

Permalänk
Medlem
Skrivet av perost:

Det finns nog ingen direkt hård fysikalisk gräns för hur stor en krets kan vara, utan vad man pratar om är praktiska gränser. Verktygen har som sagt sina gränser, och större kretsar är även relativt dyrare att tillverka eftersom sannolikheten att en enskild krets innehåller något fel (t.ex. p.g.a. orenheter i kislet) ökar ju större de är.

Ett annat problem är att ljusets hastighet faktiskt börjar bli en begränsning när man börjar komma upp i klockfrekvenser på flera gigaherts. Ljus färdas t.ex. bara 15 cm på en klockcykel vid 2 GHz (vilket är vad GPUer brukar ligga runt), vilket är kortare än det låter eftersom man sällan kan dra signalledningar i en rak linje. Så är kretsen för stor så kan man behöva lägga in fördröjningar eller sänka klockfrekvensen för att signaler ska hinna fram i tid.

OK. Har något vagt minne av att jag läst om eventuella problem som kan uppstå med bit switching etc vid för stora monolitiska kretsar och högre frekvenser. Men kan inte minnas detaljer, så det var lite något sådant jag fiskade efter :).

Visa signatur

I think I'll have myself a beer...

Permalänk
Medlem

@Teensforcash - Faith Daniels
Vi människor tycker om att hitta på nya saker så vi kommer nog få hitta på annat än bara datorkraft. Som du påpekade så som någon annan påpekade i en artikel jag läste för några år sedan. Fritt översatt från engelska. "I denna takt behöver vi inom en snar framtid ett kärnkraftverk per datorcenter". Det är inte hållbart i längden.
Har undrat över hur mycket mindre vi skulle behöva i datacenter för säkerhet om folk inte försökte förstöra för varandra. Den kraften hade kunnat användas till något roligare. Tror det är långt till en intelligent humaniood, om vi någonsin klarar av det.
Kollade på nVidias keynotes inför 22a så det ser ut som datacenter men förmoderligen tensor hit och dit.
Ren gissning men skulle inte förvåna mig om Jensen påpekar att de bättre och alt fler tensor kärnorna nu är bättre på AI då det är en keynote samt att de även senare kommer leda till bättre DLSS i framtiden. Osäker på om han nämner Nintendo och framtida switch men om ryckterna är sanna kan det bli trevligt. Men tror Nintendo själva vill berätta det först, om så är fallet.

Edit:
Jag menar maskininlärning går ju att använda på en massa sätt. The sky(net) is the limit.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem
Skrivet av Megacrash:

Jag tror nog de flesta kan va eniga om att det med stor sannolikhet kommer kosta bra mer än 8k iaf. Lite som att man behöver ingen kristalkula för veta att solen går upp imorn. Lägg sedan till scaplpers.

Är det därför kort med 80-suffix kostat 8000 kr vid release, från GTX 980 Ti (2015) till RTX 3080 (2020)?

Marknaden sätter priserna, och folk betalar generellt mindre nu p.g.a. inflation.

Trots att tillgången och priserna på GTX 10-serien gick åt Hälsingland en lång period så normaliserades priserna under RTX 20-serien, sen var det massa Tomas Tvivlaren som aldrig uppgraderade och senaste tiden suttit och tömt sparkontot för att vara med att tävla om att få betala extremast överpris.

Nu är de fattiga och RTX 30-serien snart på väg ut, så att prisnivån kan återgå till det normala.

Permalänk
Medlem
Skrivet av Sveklockarn:

Jag är inte ingenjör, men ett RTX 3070 ligger i linje med vad man kan förvänta sig förbrukningsmässigt för ett kort med 70-suffix, baserat på tidigare generationers förbrukning. Att RTX 3080 behöver ytterligare 100W effekt för att komma upp till prestandanivån Nvidia ville ha tyder åtminstone på att den Samsung-producerade kretsen inte presterade så bra som de hade hoppats på, varför man fick pressa upp den med en rejält högre strömbudget.

Det är ju något av en standardlösning att vrida på strömkranen när kislet/arkitekturen är nära toppen för vilken prestanda som kan pressas ut, vilket även förklarar det lilla prestandaövertag som högre iterationer av kort ger, där Nvidia mer eller mindre fallit tillbaka på att öka upp VRAM-mängden för att rättfärdiga priset.

RTX 3080 har ju dock ansetts som ett ovanligt stort prestandakliv, så det är inte som att Nvidia behövde dra upp strömförbrukningen så mycket bara för att det skulle förtjäna sitt 80-suffix. Även 3070 ligger mycket högre än 970/1070/2070, där redan 2070 var ett kliv upp från 970/1070.

Personligen tror jag att den ökade strömförbrukningen främst beror på att kylarna blivit bättre, vilket gör att de kommer undan med högre strömförbrukningen än tidigare. GTX 400/500-serierna är ju ökända för deras höga strömförbrukning trots att de korten drog mycket mindre än dagens kort, skillnaden i dag är att kylarna ändå är relativt tysta samt att även AMDs kort är ungefär lika strömtörstiga.

Så visst, det klagas en del på att korten drar mycket ström, men tekniskt sett är det ett mycket mindre problem än det var förr. Och så länge som korten presterar bra så köper folk dem ändå, så jag har svårt att se varför Nvidia skulle välja att offra prestanda bara för att få ner strömförbrukningen. Men jag hoppas verkligen att jag har helt fel.

Permalänk
Medlem
Skrivet av perost:

RTX 3080 har ju dock ansetts som ett ovanligt stort prestandakliv, så det är inte som att Nvidia behövde dra upp strömförbrukningen så mycket bara för att det skulle förtjäna sitt 80-suffix. Även 3070 ligger mycket högre än 970/1070/2070, där redan 2070 var ett kliv upp från 970/1070.

Ca 25% högre helsyntetiska benchmarks och 10-15% högre framerate mot 45% högre energiförbrukning?

Skrivet av perost:

Personligen tror jag att den ökade strömförbrukningen främst beror på att kylarna blivit bättre, vilket gör att de kommer undan med högre strömförbrukningen än tidigare.

Jag får intrycket att de tampas med ett massivt strömläckage och därför t.o.m. fått bryta PCIe-specifikationerna för hur stor en adapter får vara enligt standarden, för att klämma in så stor kylare som mekaniskt möjligt.

Skrivet av perost:

Så visst, det klagas en del på att korten drar mycket ström, men tekniskt sett är det ett mycket mindre problem än det var förr. Och så länge som korten presterar bra så köper folk dem ändå, så jag har svårt att se varför Nvidia skulle välja att offra prestanda bara för att få ner strömförbrukningen. Men jag hoppas verkligen att jag har helt fel.

Jag tror dock inte att det handlar om att offra prestanda för att få ner förbrukningen utan att RTX 30-serien var en flopp på den punkten. Varför skulle de dumpa Samsung efter bara en generation annars?

Men vi får väl se. Jag känner samma sak med Intel Alder Lake, att det är barnsjukdomar som ligger bakom de till synes löjliga effektsiffrorna, vilket fått mig att skjuta upp min planerade uppgradering, och håller istället tummarna för en "buggfix" med Raptor Lake.

Permalänk
Medlem
Skrivet av Sveklockarn:

Ca 25% högre helsyntetiska benchmarks och 10-15% högre framerate mot 45% högre energiförbrukning?

3080 var 50% (1080p) till 70% (4K) snabbare än 2080 i Sweclockers test. Rubriken på testet var t.o.m. "ett ovanligt stort prestandakliv".

Permalänk
Medlem
Skrivet av perost:

3080 var 50% (1080p) till 70% (4K) snabbare än 2080 i Sweclockers test. Rubriken på testet var t.o.m. "ett ovanligt stort prestandakliv".

Jag syftar på RTX 3070 vs RTX 3080, samma arkitektur/processnod.

Under fem föregående GF-generationer med >250W-kort har det skiljt 17-40W mellan 70/80-korten.

Permalänk
Medlem

Så till Jul finns det RTX 4080 på hyllorna.

Visa signatur

There is grandeur in this view of life, with its several powers, having been originally breathed into a few forms or into one; and that whilst this planet has gone cycling on according to the fixed law of gravity, from so simple a beginning endless forms most beautiful and most wonderful have been, and are being, evolved.

Permalänk
Medlem

Tveksam på att nästa serie kommer få samma köptryck som 3000serien fick

Många som satt med 1000serien ansåg att 2000 serien hade för dålig prestanda för att vara värd en uppgradering. de som satt på 900serien ansåg att 2000 serien var för dyr. När sedan 3000serin kom så ville alla med 900, 1000 och 2000 kort uppgradera. Samtidigt som företag som normal inte köper grafikkort började köpa kort för mining och få inkomst på grafikkortet. (sedan att vi fick en pandemi där man var tvungen att vara hemma gjorde saken inte bättre.)

Nu snart kommer 4000

Tveksam på om alla de som köpt 3000 kommer uppdatera då ny teknik (uppskalning) gör att man kan få bra med FPS med dagens kort. Skulle 4000 serien bli ett grymt bra grävarkort så kommer beg marknaden svämma över med grävarkort ur 2000 och 3000 serien som kommer göra att efterfrågan på 4000 kort minskar.

Finns inga nya spel som släppts som inte går att spela på 3000 serien. RT som Nvidia höjde till skyarna har nästan alla insett att det inte ser bättre ut med denna funktionen så att byta kort för denna funktionen tror jag det är få som gör.

Xbox och PS använder 7nm så dessa kommer inte längre tävla mot 4000 i tillverknings kapacitet. Iphone har minskat sin försäljning så frågan är om de kommer behöva nyttja all plats som de har i fabrikerna.

Skulle sedan toppkortet gå förbi 500W så är det inte många kvar som vill köpa med tanke på den värmen ett sådant kort alstrar.

Angående långsammare kort så är jag tveksam till att Nvidia, AMD vill bjuda in Intel utan här kommer de släppa kort med lägre priser för att minimera risken att kunder ska köpa Intel grafikkort.

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av sesese:

Många som satt med 1000serien ansåg att 2000 serien hade för dålig prestanda för att vara värd en uppgradering. de som satt på 900serien ansåg att 2000 serien var för dyr. När sedan 3000serin kom så ville alla med 900, 1000 och 2000 kort uppgradera samtidigt som företag som normal sätt inte köper grafikkort började köpa kort för mining och få inkomst på grafikkortet. (sedan att vi fick en pandemi där man var tvungen att vara hemma gjorde saken inte bättre.)

Nu snart kommer 4000

Tveksam på om alla de som köpt 3000 kommer uppdatera då ny teknik (uppskalning) gör att man kan få bra med FPS med dagens kort. Skulle 4000 serien bli ett grymt bra grävarkort så kommer beg marknaden svämma över med grävarkort ur 2000 och 3000 serien som kommer göra att efterfrågan på 4000 kort minskar.

Finns inga nya spel som släppts som inte går att spela på 3000 serien. RT som Nvidia höjde till skyarna har nästan alla insett att det inte ser bättre ut med denna funktionen så att byta kort för denna funktionen tror jag det är få som gör.

Xbox och PS använder 7nm så dessa kommer inte längre tävla mot 4000 i tillverknings kapacitet. Iphone har minskat sin försäljning så frågan är om de kommer behöva nyttja all plats som de har i fabrikerna.

Skulle sedan toppkortet gå förbi 500W så är det inte många kvar som vill köpa med tanke på den värmen ett sådant kort alstrar.

Jag tror snarare tvärt om, de som väntat och hållit sig sedan 2000-serien var för dyr och nu saknade tillgång och galna priser på 3000 så är det nog extremt många som vill uppgradera, både 900/1000/1600/2000, kanske framförallt i mellanklassen och nedåt, men ser de till att göra några kort under 10k så kommer det vara sjukt högt tryck igen

Permalänk
Medlem
Skrivet av medbor:

Jag tror snarare tvärt om, de som väntat och hållit sig sedan 2000-serien var för dyr

Du menar som i att någon tyckte att den var för dyr? Annars var ju RTX 20-serien ett riktigt kap på alla sätt, det var primärt negativa recensenter som sköt den i sank genom att döma ut den som "1080 Ti Gen 2" och liknande trams, samtidigt som det var första kortgenerationen med framtidens GPU-teknologier samlade som RTX.

Jag hoppade för övrigt över 10-serien, och att uppgradera till GTX 1080 från mitt dåvarande GTX 980 Ti, för att sedan lägga pengarna på ett RTX 2080. Det är ett beslut som känns väldigt rätt med facit i hand.

Idag är ju också ett RTX 2080 mycket mer kapabelt än ett GTX 1080 Ti, och kommer funka för att få ut allt ögongodis av ett flertal framtida speltitlar, medan ett 1080 Ti bara är ett gammalt GTX-kort som blir allt mer irrelevant.

Permalänk
Medlem
Skrivet av Sveklockarn:

Du menar som i att någon tyckte att den var för dyr? Annars var ju RTX 20-serien ett riktigt kap på alla sätt, det var primärt negativa recensenter som sköt den i sank genom att döma ut den som "1080 Ti Gen 2" och liknande trams, samtidigt som det var första kortgenerationen med framtidens GPU-teknologier samlade som RTX.

Jag hoppade för övrigt över 10-serien, och att uppgradera till GTX 1080 från mitt dåvarande GTX 980 Ti, för att sedan lägga pengarna på ett RTX 2080. Det är ett beslut som känns väldigt rätt med facit i hand.

Idag är ju också ett RTX 2080 mycket mer kapabelt än ett GTX 1080 Ti, och kommer funka för att få ut allt ögongodis av ett flertal framtida speltitlar, medan ett 1080 Ti bara är ett gammalt GTX-kort som blir allt mer irrelevant.

Jo, idag hade jag lätt kunnat uppgradera till ett 2000-kort, men när det begav sig var stämningen snarare att rtx och tensor var meningslöst fluff som inte skulle spela roll när dessa väl behövdes.

Den tanken tycker jsg nog stämmer in väldigt bra på rtx fortfarande, 2000-korten är lite för sega för riktig raytracing som gör skillnad, men tensor och framförallt då DLSS är verkligen en stor fördel för 2000 över 1000 idag

Dock hade jag ändå sett att prestanda per krona (sett till vanlig rasterisering) också börjar öka igen, det var ju främst där skon klämde initialt för 2000-serien (men blev oväntat mycket bättre över tid, något som var svårt att förutspå)

Permalänk
Avstängd
Skrivet av Fulci:

När han tar ut nya GPU:n ur ugnen är den direkt kopplad till spisens 3-fas.

Är du säker på att det inte är ett värmeelement han tar ut då?

Visa signatur

"Företagsboendeförmedlare" | Min Überkill Dator: Processor: Intel Pentium P5 66 Mhz OC | Moderkort: ASRock P4I65G | Minnen: 2st Samsung 128MB PC133 | Grafikkort: Canopus GeForce 256 DDR | Lagring: IBM 350 4,4 MB | Operativsystem: DOS/360 | Chassi: Mercury Full-Tower ATX Chassis |

Permalänk
Medlem

Blir väl ingen som hopper av glädje. Bra prestanda spelar ingen roll om priserna är för höga och tillgängligheten för dålig. Men den som lever får se.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk

Bra att de satsar på AI och jag gillar det. Men jag tycker det är taskigt om presentationen endast handlar om Ai och andra som väntar på annat får sitta och lyssna på detta och kanske bli besvikna.

Permalänk
Medlem
Skrivet av medbor:

Jo, idag hade jag lätt kunnat uppgradera till ett 2000-kort, men när det begav sig var stämningen snarare att rtx och tensor var meningslöst fluff som inte skulle spela roll när dessa väl behövdes.

Den tanken tycker jsg nog stämmer in väldigt bra på rtx fortfarande, 2000-korten är lite för sega för riktig raytracing som gör skillnad, men tensor och framförallt då DLSS är verkligen en stor fördel för 2000 över 1000 idag

Dock hade jag ändå sett att prestanda per krona (sett till vanlig rasterisering) också börjar öka igen, det var ju främst där skon klämde initialt för 2000-serien (men blev oväntat mycket bättre över tid, något som var svårt att förutspå)

Håller med, 2000-serien handlade om att betala för features som blev relevanta i framtiden (DLSS och RT support). Visst är båda dessa features bra idag men så såg det verkligen inte ut när korten släpptes. Sen var ju pris/prestandan inget att hurra över när exempelvis 2080 kostade lika mycket som 1080Ti och erbjöd liknande raster prestanda, vilket nog sved i mångas ögon då det kändes som en stagnation i råprestanda. 2000-serien blev dock ett ganska bra köp nu i efterhand måste jag säga.

Jag antar att vi kommer se en liknande prisökning som skedde med omtyckta Pascal som (förhoppningsvis) ger en stor prestanda ökning som kan motivera en högre prislapp.

Visa signatur

f0rest stan | Citera mera | 5800x – 6700 XT