AMD Radeon RX 6900 XT med vattenkylning får 16 GB rekordsnabbt GDDR6

Permalänk
Medlem

Synd att den har pris vid lansering. Hade hoppats på att få den gratis /:

Permalänk
Medlem
Skrivet av mpat:

GDDR6X ser mer och mer ut som ett riktigt stolpskott.

På vilket sätt? Tror du att G6 på det här kortet har lägre pJ/bit? För att enligt informationen jag har så G6X må vara varma men är effektivare per bit (om än relativt lite <10% lägre iirc). Med andra ord klockar du G6 till samma frekvens kommer dom chipsen dra mer än G6X. Anledningen till att G6 inte blir lika varma är med andra ord för att man inte kör dom i lika höga frekvenser som G6X, inte för att G6X har dålig effektivitet.

Permalänk
Medlem
Skrivet av mpat:

Nvidia och Micron utvecklade det tillsammans, och NVidia har exklusiv tillgång till det under en period. Samma gällde med GDDR5X, och omvänt med första HBM där AMD var ensamma under en period.

Ah okej. AMD kan alltså komma att använda det i framtiden?

Permalänk
Medlem

Vad jag spekulerar i är att AMD gör detta kort för att vanliga 6900 har för låg bandbredd på minnet för att få bra resultat i 4k.
Med detta minne kommer kortet kanske att vara snabbare än 3090 i 4k, och man tillverkar ett 30tal kort som reviewers får för att
sprida PR om att AMD är snabbare även i 4k.

Permalänk
Medlem
Skrivet av CubaCola:

Vad jag spekulerar i är att AMD gör detta kort för att vanliga 6900 har för låg bandbredd på minnet för att få bra resultat i 4k.
Med detta minne kommer kortet kanske att vara snabbare än 3090 i 4k, och man tillverkar ett 30tal kort som reviewers får för att
sprida PR om att AMD är snabbare även i 4k.

Mm blir kanske som med Radeon VII, något man hör talas om men extremt sällan ser.

Permalänk
Medlem
Skrivet av peterholm1:

Är det någon som vill ha AMDs grafikkort oavsett hur dom kyls?
(battle time).

Jag tycker det är konstigt att det är så många som kör nvidia.
När priset ligger på en normal nivå så blir det ett 6900 XT.

Permalänk
Medlem
Skrivet av ELF:

Jag tycker det är konstigt att det är så många som kör nvidia.
När priset ligger på en normal nivå så blir det ett 6900 XT.

Inte så konstigt.

Mitt RTX 3090 har legat och tickat in 7-13 dollar om dagen sedan jag köpte det. Har redan fått tillbaka mer än mellanskillnaden mellan dom korten.

Permalänk
Medlem
Skrivet av tandläkarstudenten:

Ah okej. AMD kan alltså komma att använda det i framtiden?

Ja, men jag tror inte att de gör det. GDDR6 är baserad på DDR4, GDDR5 baserad på DDR3, osv bakåt - helt enkelt för att då går det lätt för minnestillverkaren att ställa om mellan säg DDR och GDDR6. Alltså bör det bli en GDDR7 baserad på DDR5 om inte alltför lång tid, så GDDR6X blir en parantes på samma sätt som GDDR5X blev.

Permalänk
Medlem
Skrivet av KalBumling:

På vilket sätt? Tror du att G6 på det här kortet har lägre pJ/bit? För att enligt informationen jag har så G6X må vara varma men är effektivare per bit (om än relativt lite <10% lägre iirc). Med andra ord klockar du G6 till samma frekvens kommer dom chipsen dra mer än G6X. Anledningen till att G6 inte blir lika varma är med andra ord för att man inte kör dom i lika höga frekvenser som G6X, inte för att G6X har dålig effektivitet.

Poängen är mest att nu när DDR5 är på gång bör det bli en GDDR7 baserad på den, så GDDR6X kommer bara att leva denna korta generation. Det höll inte tillnärmelsevis vad det lovade, och eftersom det är en rätt komplex förändring var den säkert inte gratis. Resultatet blev en minimal förbättring som egentligen bara märks på 3090 - 3080 hade ju kunnat få samma bandbredd genom att helt enkelt använda alla memory controllers på chippet. Dessutom görs ju GDDR6X inte i lika stora kretsar, vilket är skälet till att 3080 bara har 10GB VRAM. Hade Nvidia kört med en full uppsättning högt klockade GDDR6, hade 3080 kunnat ha åtminstone 12GB och i en variant 24GB utan att kosta mer (och antagligen mindre).

Om effekten är bättre räknat i J/bit vet jag inte, det beror helt på vilken spänning det går vid, men det är värt att påpeka att effekten har gått upp med 10% när klockfrekvensen (räknat på gameclock) gick upp med 11.6% och minnesklockan gick upp med 12.5%. AMD har således inte lämnat sin "sweet spot" genom att jaga upp spänningen.

Permalänk
Medlem
Skrivet av mpat:

så GDDR6X kommer bara att leva denna korta generation.

Var dock säkerligen inte menat att leva längre hellre. Nvidia gjorde samma sak med G5X som bara användes till 1080/1080Ti och Titan.

Skrivet av mpat:

3080 hade ju kunnat få samma bandbredd genom att helt enkelt använda alla memory controllers på chippet.

Då hade man inte haft någonstans att göra av dies som har trasiga minneskontrollers. 3080 Ti hade varit en bättre kandidat för G6 och hade fungerat som en bättre differentiering mot 3090, men då hade prestandaskillnaden mot 3080 varit ännu mindre.

Skrivet av mpat:

Om effekten är bättre räknat i J/bit vet jag inte, det beror helt på vilken spänning det går vid, men det är värt att påpeka att effekten har gått upp med 10% när klockfrekvensen (räknat på gameclock) gick upp med 11.6% och minnesklockan gick upp med 12.5%. AMD har således inte lämnat sin "sweet spot" genom att jaga upp spänningen.

Nu pratar du dock om hela grafikkortet, jag pratade om minnesmodulerna specifikt. Som jag sa, G6X går varmt pga frekvens och inte sämre effektivitet mot G6.

Permalänk
Medlem
Skrivet av #hallå#:

Kan vi sluta förväxla enheterna någon gång? 🙄

Vill du att det ska stå MT/s istället för MHz? För det sticker i ögonen på mig.

Permalänk
Medlem
Skrivet av KalBumling:

Var dock säkerligen inte menat att leva längre hellre. Nvidia gjorde samma sak med G5X som bara användes till 1080/1080Ti och Titan.

Säkert, men GDDR5X var en trivial förändring av GDDR5 (man ökade bara prefetchen) med GDDR6X är en större, och därmed dyrare, omdesign. Skall man betala av den kostnaden på en generation får det verkligen vara värt det.

Citat:

Då hade man inte haft någonstans att göra av dies som har trasiga minneskontrollers.

Gör en tredje nivå då, 3070 Ti eller vad som helst. Eller designa chippet med ytterligare en controller, de är inte stora jämfört med kostnaden att ta fram en ny minnesstandard.

Citat:

Nu pratar du dock om hela grafikkortet, jag pratade om minnesmodulerna specifikt. Som jag sa, G6X går varmt pga frekvens och inte sämre effektivitet mot G6.

Jovisst, men klockfrekvensen på GPUn har ju också gått upp, och mer än de 10% som effekten gått upp. Om minneskretsarna lämnat sin sweetspot och drar mer än ökningen i klockfrekvens, måste grafikkretsen ligga under sin. Det känns ganska osannolikt, för varför skulle inte AMD bara klocka upp den vanliga 6900 XT i så fall?

Permalänk
Medlem
Skrivet av mpat:

Säkert, men GDDR5X var en trivial förändring av GDDR5 (man ökade bara prefetchen)

Man la till QDR support, lite mer än "bara prefetchen". GDDR5X körs i betydligt lägre frekvens än G5 som ett resultat. I princip så är G5X en prekursor till G6 innan G6 ens var ratificerad av JEDEC. Skulle inte bli förvånad om G6X är en fingervisning om vart GDDR är på väg i framtiden. Du glömmer bort att GDDR är ett område där minnestillverkarna och Nvidia/AMD bedriver utveckling tillsammans och det är inte så att Nvidia en dag gick till Hynix/Micron och sa "vi vill ha det här".

Skrivet av mpat:

Jovisst, men klockfrekvensen på GPUn har ju också gått upp, och mer än de 10% som effekten gått upp. Om minneskretsarna lämnat sin sweetspot och drar mer än ökningen i klockfrekvens, måste grafikkretsen ligga under sin. Det känns ganska osannolikt, för varför skulle inte AMD bara klocka upp den vanliga 6900 XT i så fall?

Det är fortfarande en jämförelse som inte kan göras då du inte kan anta att alla dies drar lika mycket vid samma frekvens. Denna LC version är förmodligen hårt binnad och som resultat kan köras i högre frekvens med lägre spänning. Du behöver först ha ett kort till hands och normalisera V/F mot ett annat 6900XT för att se hur mycket mer minnet drar. Sen har du dessutom ett vattenkylt kort som slipper driva fläktarna (5-15W) iom att AIOn med största sannolikhet har extern strömanslutning. Med tanke på att vi pratar en bra bit under <1W extra för varje minneschip mellan vanliga 6900XT och det här kortet så är det inte direkt nåt som är lätt att se om du jämför kort mot kort.