Geforce RTX 4080 uppges bestyckas med GDDR6X-minne som körs i 23 000 MHz

Permalänk
Medlem

Blir intressant att se vilka gissningar/rykten som visar sig stämma.

Permalänk
Medlem
Skrivet av Jazz 1-up:

GT/s är ungefär lika dumt som GHz, då det bara är minnesbandbredd som faktiskt spelar roll.

Actually Hardcore Overclocking går igenom det här: https://www.youtube.com/watch?v=diZT3ly0vy4

Om vi ska jämföra vad som är relevant behöver vi Gbps, precis som i ursprungliga tweetet av kopite7kimi. Ingen anledning att skriva någon annan enhet.

", då det bara är minnesbandbredd som faktiskt spelar roll. "
Är du säker på att du förstått videon du länkade?

Låt oss börja med att sammanfatta hans video som "what the hell is a megatransfer". AHO förstår inte vad han pratar om och han har inte bemödat sig med att läsa på definitionerna.

Citat:

"The formula for a data transfer rate is: Channel width (bits/transfer) × transfers/second = bits/second."

Den effektiva minnesbandbredd du pratar om får man genom att ta T/s * bussbredd, eller om du frågar AHO så tar man bit/s * bussbredd.

Jag gick igenom AHOs video.
Vid 1:15 kollar AHO på lösa minneschip från Samsung.
3200Mbps. (16bit bredd) = 6.4GB/s

Vid 1:22 kollar han HBM
2Gbps (1024bit bredd) = 256GB/s

"Obviously units are very different for HBM because HBM is very very fast" säger AHO, medan han hovrar över 2Gbps alldeles efter han tittat på DDR4 3200Mbps (3.2Gbps).
Hade han otur när han tänkte?

1:46 Nu kollar AHO en hel minnesmodul DDR4, specen är följande:
3200Mbps (64bit bredd) = 25.6GB/s

2:45 "A lots of time you say that this memory kit runs at 3200, uh, uh, uh, am I gonna say MHz? Don't say MHz say mbits per second because mbits per second is correct".
Vilket fantastiskt argument, mbit är korrekt för att han säger det. Han förklarar inte varför transfers är fel i detta sammanhanget.

AHO menar att vi ska benämna den DDR4-modul han tittat på så här:
3.2Gb/s, 25.6GB/s.
Istället för så här:
3.2GT/s, 25.6GB/s

Min första tanke är att det blir stor risk för missförstånd och felskrivningar när man har snarlika enheter till både hastighet och bitbredd. Att det kan bli missförstånd känner AHO till:

4:14 "One thing I've seen people bring up is that mbit/s gets kind of confusing because you confuse it with overall memory bandwidth. Again with GPUs you just say your memory speed and your memory bus width and that's how you get your bandwidth".

Men det är inte ett argument för b/s över T/s. Jag kan nämligen ge precis samma argument:
"Just say your memory speed (T/s) and your memory bus width and that's how you get your bandwidth".

"Nobody uses megatransfer"
6:33 "As far as I can tell, the only people that talk about megatransfers are Micron and people on the internet" säger AHO, men verkar inte känna till att JEDEC som sätter minnesstandarden använder MT/s.

7:09
"Even Microns own product catalog doesn't use megatransfers, it's not until you get into the datasheets that the unit comes up".
Om marknadsföringsmaterialet använder en enhet och databladen en annan, så skulle jag utgå från att databladen är korrekta. Bryr jag mig om tekniskt korrekt frågar jag en ingenjör, inte marknadsföringsavdelningen.

Ett annat argument AHO ger för b/s är att Samsung använder det. Jag skulle kunna argumentera lika uselt och säga att Intel beskrivit överföringshastighet med T/s sen den blev quadpumpad.

Vid 7:55 förklarar AHO att det är enklare att säga megabit än megatransfer. Inte ett övertygande argument för vad som är rätt.

Så vad har vi kommit fram till?
1. Vi kan uttrycka oss som JEDEC och ange minneshastigheten i MT/s.

2. Vi kan lyssna på AHO som tycker Mbit/s är lättare att säga och det som Samsung använder.

3. Vi kan ange hastigheten i Hertz och skriva något som garanterat är felaktigt.

Visa signatur

Arch | 1440p 165Hz IPS | 7800X3D | 1080ti | 64GB@6GHz | SN850 2TB

Permalänk
Medlem
Skrivet av sniglom:

", då det bara är minnesbandbredd som faktiskt spelar roll. "
Är du säker på att du förstått videon du länkade?

Jag är säker på att jag inte förstod. Eller kanske snarare att jag inte ska lita på mig själv att undvika blanda ihop enheter mitt i natten.

Visa signatur

Moderkort: Asus P8P67 PRO REV B3 | CPU: Intel Core i5 2500K | GPU: GTX 980 DirectCU II 4GB |
PSU: 850W Gold

Permalänk
Medlem

Det är så mycket rykten om RTX korten i 4000 serien att man börjar undra om Nvidia själva går ut med dem till alla som läcker info för att hypa upp korten. Finns rykten om kommande RX korten med men inte i samma mån. Kan det vara så att Nvidia är riktigt rädda denna gång med vad röda laget har i fickan tro.

Är väldigt nyfiken på vad de röda gjort med ray tracing prestandan då deras fsr 2.0 är 😘👌och det utan någon artificiell intelligens.

Permalänk
Medlem
Skrivet av #hallå#:

Jag menar såklart att inte omvandla överföringshastigheten (Gbps) till ett pseudo värde i frekvens (Mhz) 🙃
Det är inget i minnet som rullar runt i 23Ghz så varför skriva på de viset?

Håller med. Det står ju tydligt i tweeten att det är 23 Gbps, inte 23 MHz!
23 Gbps är mycket mindre än de 736 som redaktionen läst ut...

Permalänk
Medlem
Skrivet av TheYardbird:

Och nu väntar vi till imorgon då nästa artikel om nästa uppsättning påstådde specifikationer publiceras.
Jag har hört från mina jättesuperdupersäkra källor att minnet kommer gå i 47 000 Mhz. Basfrekvensen på RTX 4093 Ti SuperTitan ligger på 1,1 GHz och turbofrekvensen på 8,93 GHz!

Det är exakt samma info jag fått.

Visa signatur

Corsair Obsidian 1000D* Corsair AX1600i* Asus Z790 Prime-A* Intel 13900K* 32GB G-Skill DDR5 7600Mhz/36* Asus RTX 4090* Corsair MP600 1TB* Samsung 980 Pro 1TB

Permalänk
Medlem

Själv har jag från säkra källor hört att 4080 kommer få en basfrekvens på 1-4Ghz, minnet mellan 10-40Ghz och 10-40GB VRAM. TDP hamnar nånstans mellan 100-1000W.

Kom ihåg vart ni hörde det först!

Permalänk
Medlem
Skrivet av sniglom:

2. Vi kan lyssna på AHO som tycker Mbit/s är lättare att säga och det som Samsung använder.

Nu är det väl inte bara Samsung som använder det, det är branschstandard, samtliga kretstillverkare använder sig av den enheten både offentligt och i datablad i stor utsträckning. Inte för att jag ofta läser JEDEC specificationer men dom använder sig också av Gbps i pressmaterial. Personligen har jag aldrig sett mega/giga transfers användas i gddr sgram sammanhang.

Skrivet av Olle P:

Håller med. Det står ju tydligt i tweeten att det är 23 Gbps, inte 23 MHz!
23 Gbps är mycket mindre än de 736 som redaktionen läst ut...

Det man pratar om är hastigheten per pin, och anledning till att man inte använder hz är för att man kan flytta data mer än en gång per cykel. För GDDR6 är det till exempel åtta gånger det är därför klockan är rätt ointressant eftersom det är effektiv hastighet som är det intressanta. De 736GB/s som nämns är total bandbredd med en 256 bitars minnesbuss med 23Gbps kretsar (23*256/8).

Permalänk
Medlem

Man lär få pantsätta ena njuren om man ska ha råd

Permalänk
Medlem
Skrivet av DasIch:

Själv har jag från säkra källor hört att 4080 kommer få en basfrekvens på 1-4Ghz, minnet mellan 10-40Gbps och 10-40GB VRAM. TDP hamnar nånstans mellan 100-1000W.

Fixed it for you.

På riktigt Sweclockers, dags att kamma sig. (riktat till artikeln, inte DasIch med den vågade profetian ovan)

Minnesmodul-hastighet anges som Gbps, inget annat. Och några 23000 Mhz GDD6X minnen existerar inte.
På samma sätt som man anger total bandbredd (hastighet*bussbredd) som GBps (GB/s), ingen skulle få för sig att gagga om Mhz där.

23 Gbps GDDR6X = Minnesklockan juckar i 1438 Mhz, förövrigt.

edit: Then again, är inte nöjd med att man kallar CPU:er för "processorn" heller iofs... Jag är fun at parties dock, tro det eller ej.

Permalänk
Avstängd
Skrivet av Nikodemous:

Ja, jag räknade lite på det innan idag. Låt oss säga att du har en GPU som drar 500 watt. Sen har du samma peak på elpris nere i skåne på 5 kr/kwh. Det är alltså 2.50 kr per timma bara för grafikkortet. Så när man lirat ett spel i 100 timmar så har endast grafikkortet kostat dig 250 kr i ren ström, vilket många gamers utan problem kommer upp i under vintern. Om vi sen lägger på vad resten av datorn drar i ström så blir det en väldigt tråkig historia 😱

Det är lämpligt att du nämner just under vintern, det är precis då spillvärmen gör någon nytta.
De som bor i villa kan sänka värmepumpen/ackumulatortanken/elpatronen, och de som bor i lägenhet har väl inte jättesällan lite småkallt på vintern ändå.

Permalänk
Medlem
Skrivet av ipac:

edit: Then again, är inte nöjd med att man kallar CPU:er för "processorn" heller iofs... Jag är fun at parties dock, tro det eller ej.

Det förefaller lite väl pedantiskt att kalla det för centralprocessor, kan jag tycka. Jag vill dock någon gång i mitt liv vara på en fest där det uppstår en het debatt om detta.

Permalänk
Medlem
Skrivet av Ricerunner:

Det är lämpligt att du nämner just under vintern, det är precis då spillvärmen gör någon nytta.
De som bor i villa kan sänka värmepumpen/ackumulatortanken/elpatronen, och de som bor i lägenhet har väl inte jättesällan lite småkallt på vintern ändå.

Så är det ju, men just nu ligger ju elen på 5 spänn. Det känns inte som att spillvärmen gör nån nytta just nu.

Visa signatur

Star citizen - swedish umbrella. En svensk union för er spelare och organisationer som tycker om demokratiska val.
https://robertsspaceindustries.com/orgs/SWEUMB
Discord:
https://discord.com/invite/j5AkGERJz3

Permalänk
Avstängd
Skrivet av Nikodemous:

Så är det ju, men just nu ligger ju elen på 5 spänn. Det känns inte som att spillvärmen gör nån nytta just nu.

Ja höga elpriser basunerades att det skulle komma redan i höstas, och band man inte på 50 öre då får man väl ha det så...

Permalänk
Medlem
Skrivet av Ricerunner:

Ja höga elpriser basunerades att det skulle komma redan i höstas, och band man inte på 50 öre då får man väl ha det så...

Det var väl ingen som visste att ukraina skulle bli anfallet då. Och även om flera menade på att det skulle hända så trodde nog de flesta bedömmare att det skulle ta max en vecka. Skulle det skett så skulle inte heller detta ekonomiska krig brytit ut. Länderna hade fördömt ryssland och låtit dom.vara under diverse embargon, men det hade troligen inte påverkat gaspriset. Så att sitta och säga att man redan på förhand vetat om detta känns inte riktigt tillförlitligt. De sa även att reporäntan skulle öka redan 2013 vilket inte skedde innan typ 2021. Många skriker varg så ofta att man inte kan hoppa på alla bollar. Men nu är vi väldigt långt offtopic.

Det jag efterlyser är en prestanda per watt jämförelse. Det verkar som prestandan och kostnaden för köpet av själva korten tar upp all uppmärksamhet. Även om man endast är ute efter prestandan, så har elbolagen gått ut och sagt att det kan bli så att man helt enkelt stänger av kunder under kortare tider under vintern så att inte elnätet kollapsar. Om det blir så att varje konsument får ett x antal watt att spendera så kan det ju vara vettigt att ha en dator som inte drar för mycket så att man slipper bli bortkopplad. Oavsett om du har bundet eller ej så kan det bli realitet att du bränt dina watt på några få timmar, istället för dagar när korten drar mindre. Nu har förvisso inte elbolagen sagt att de kommer ransonera ut elen utan det kan ju bli alla i ett område oavsett hur mycket/lite de använt, men jag blir inte heller förvånad om de fantiskt ransonerar ut ett x antal watt per dag. Om kriget håller på ett längre tag så är denna elfrågan inte löst nästa vinter heller. Under en månad 1974 så fick man endast köra bil fram och tillbaka till jobbet och handla då det var brist på drivmedel. Oavsett om du satt med en dyr snabb porsche eller en sliten 142:a så fick du helt enkelt inte köra mer än den andre. Om det blir samma resa denna gången så kan det definitivt bli så att du får en viss effekt att förbruka oavsett om du har bundet eller ej. Därav är det intressant att lyfta effektfrågan på korten.

Visa signatur

Star citizen - swedish umbrella. En svensk union för er spelare och organisationer som tycker om demokratiska val.
https://robertsspaceindustries.com/orgs/SWEUMB
Discord:
https://discord.com/invite/j5AkGERJz3

Permalänk
Medlem

Jaså 2 år senare duger inte 10gb?

Visa signatur

Magnus AMD

Permalänk
Medlem
Skrivet av AMD73:

Jaså 2 år senare duger inte 10gb?

Två år senare så finns det (och produceras bara) 16Gb GDDR6X-minnesmoduler, vilket inte var fallet då 3080 lanserades (då, 8Gb moduler, som idag har status "contact factory").

Så både i 4080 och 3080 fall handlar det inte så mkt om vad som duger eller inte - utan vad som var tekniskt mest lämpligt. Då det begav sig hörde man ibland stolpskott kommentarer i stil med "muhää, jag vill ha 16 GB" vilket hade resulterat i sämre prestanda än vad vi faktiskt fick.