Radeon RX 6000-serien uppges få 16 och 12 GB grafikminne

Permalänk
Hjälpsam
Skrivet av Jonhed:

Håller med till hundra procent.
Hade inte R9 290 8gb typ? Eller om det var radeon 580.
Och det var inga höjdarkort om jag förstått rätt

R9 290 hade 4 GB och R9 390 hade 8 GB.
R9 290 var ett riktigt höjdarkort, släpptes 2013 och duger fortfarande bra till spel även i dag.

Prestanda är drygt 50% av ett GTX1080 i DX11 och knappt 60% i DX12.
Test från 2018.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Chade:

Jag funderar mer på om det var nvidia som stressade ut i förtid med tanke på deras leveranser. Amd kan lika gärna vara väldigt självsäkra just nu och sikta på en lansering med kort som inte tar slut på ett par minuter.
Men vad vet jag, allt är bara spekulationer just nu.

Som jag ser det: Nvidia har typ lagt korten på bordet nu (och de har nog gjort allt de kunnat med tanke på att 3090 bara är 10% bättre än 3080). Allt AMD behöver göra är att släppa information. De behöver inte ha korten redo. De behöver bara ge folk en anledning till att vänta. Samma med Nvidias 20GB/SUPER/TI kort. INFORMATION SÅ VI KAN PLANERA VÅRA KÖP.

Visa signatur

Case: Fractal Design Torrent Solid Black MOBO: ASUS ROG STRIX X670E-A GAMING WIFI CPU: AMD Ryxen 7 7800X3D CPU cooler: Noctua NH-D15 RAM: G.Skill Trident Z5 Neo DDR5 6000MHz CL30 32GB GPU: MSI RTX 3080 GAMING Z TRIO 12G PSU: ROG Strix 1000W Gold Aura Edition M2: Kingston Fury Renegade 2TB Fans: 4x Noctua NF-A12x25
Monitor: ASUS ROG Swift PG27AQDM 27" 240Hz 1440p OLED QHD Mouse: Razer DeathAdder v3 Pro Wireless
Mousepad:
InfinityMice Speed V2 Keyboard: Wooting Two HE Headset: Audeze Maxwell Mic: Blue Yeti X

Permalänk
Medlem
Skrivet av Jonhed:

Håller med till hundra procent.
Hade inte R9 290 8gb typ? Eller om det var radeon 580.
Och det var inga höjdarkort om jag förstått rätt

Beor på vad man skulle göra med dem. R9 290X hade prestanda som ett GTX Titan och kostade typ hälften eller något. Men så klagades det på energiåtgång och kylaren på referensmodellen :)... Nu när 3080 drar energi som en mindre dator så hör man inga sådana rop

Visa signatur

Huvudriggen är en Gigabyte Aorus Xtreme | 128gb DDR5 6000 | Ryzen 7950X | 3080Ti
Utöver det är det för många datorer, boxar och servar för att lista :P

Permalänk
Medlem

@Ratatosk: Oj okej! Jag har varit helt missinformerad alltså.
Tack!

Visa signatur

i7 8700k 5.1ghz egengjord delid | 32gb G.Skill Trident Z RGB 3600mhz cl15 | MSI Suprim X 3070ti
https://valid.x86.fr/uudh64

Permalänk
Medlem
Skrivet av inquam:

Beor på vad man skulle göra med dem. R9 290X hade prestanda som ett GTX Titan och kostade typ hälften eller något. Men så klagades det på energiåtgång och kylaren på referensmodellen :)... Nu när 3080 drar energi som en mindre dator så hör man inga sådana rop

https://www.youtube.com/watch?v=6xW-5jbGcMI

Hade ingen aning om detta!
Tack för infon

Visa signatur

i7 8700k 5.1ghz egengjord delid | 32gb G.Skill Trident Z RGB 3600mhz cl15 | MSI Suprim X 3070ti
https://valid.x86.fr/uudh64

Permalänk
Datavetare

Microsofts Xbox-team kan ha gett oss en vink om nivån på de arkitekturspecifika optimeringarna hos RDNA2 över RDNA1

"basically a 25 percent performance uplift over GCN with no work by developers at all"

Om vi tar 25 % siffran som gospel, ställer RX 580 (sitter i princip ett RX 580 i Xbox One X) mot 5700XT och använder prestandaindex samt teoretisk beräkningskapacitet som referens (Microsoft ställer ju 4 TFLOPS i XSS mot 6 TFLOPS i XBX) får man fram att RDNA1 är ~16 % effektivare än CGN i Polaris.

Med lite matematiktrolleri får man då fram att RDNA2 blir ~8 % mer effektiv per teoretisk TFLOP ställd mot RDNA1 (ska nog tas som väldigt ungefärligt, men ändå).

Skrivet av Ratatosk:

Även Direct Storage, det finns ju på konsollerna.
Något svar på DLSS lär vi också se, det är för stor gamechanger att lämna öppet.
Gissar på något som drivs via DirectML.

Direct Storage kommer rimligen implementeras, den funktionen kan ju alltid implementeras som compute-shaders. Men är inte riktigt jämförbart med konsolerna då man där har dedicerat kisel för funktionen, d.v.s. det ligger utanför RDNA2.

Vi lär absolut få se något likt DLSS implementerat med DirectML. Tyvärr lär det inte bli alls samma prestandaboost som på RTX-korten. Nvidias DLSS använder ju RTX-seriens tensor-kärnor, dessa används i nuläget inte alls av spel så DLSS blir ur den aspekten "gratis" på RTX-korten.

DirectML använder tensor-kärnorna på RTX-serien, men det fungerar även utan tensor. Utan tensor-kärnor tas kraft från CUDA/stream-kärnorna, så en DLSS-funktion med DirectML kommer ju ta en den av kraften spelen använder för rendering -> inte alls samma boost i prestanda utanför fall som är begränsade av andra saker, som t.ex. bandbredd.

om det nu sitter en 256-bitars bus på big-navi skulle något likt DLSS via OpenML kunna hjälpa en hel del. Framförallt om kretsen i övrigt har mer "compute" än den kan utnyttja i spel p.g.a. begränsningar i bandbredd

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hjälpsam
Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Så det blir inga HBM-minnen?

Permalänk
Medlem
Skrivet av inquam:

Beor på vad man skulle göra med dem. R9 290X hade prestanda som ett GTX Titan och kostade typ hälften eller något. Men så klagades det på energiåtgång och kylaren på referensmodellen :)... Nu när 3080 drar energi som en mindre dator så hör man inga sådana rop

https://www.youtube.com/watch?v=6xW-5jbGcMI

Jag ser inte det kontroversiella. Dels hör man visst rop om 3000-seriens TDP hela tiden. Varje dag och i varje tråd. Och det förtjänar att highlightas.

Men RX 290-serien är väl praktexempel på hur man inte gör när man har en varm SKU. Har absolut inget förberett från tredjepart på lanseringsdagen samt inkluderar en horribelt dålig kylare på referenskortet.

Visa signatur

i7-2700K 5GHz | 32GB DDR3-1600 | ASUS Maximus V Gene | GTX 980 2-way SLI

Permalänk
Inaktiv
Skrivet av ipac:

Stämmer, hade för mig det var smalare men 512bit. Borde jag minnas, körde ett 290 Tri-X då.

Permalänk
Medlem

Men släpp kortet någon gång istället. Har varit rykten om att "Big Navi" skulle komma redan när 2080ti släpptes.

Om "Big Navi" inte presterar MINST likt ett 3080 så undrar jag vad de sysslat med hela denna tiden.

Permalänk
Medlem
Skrivet av anon5930:

Var det inte något kort som hade 512 bit till och med? Funderade på 480 då det var ett så extremt törstigt kort men den hade också "bara" 384bit.

Ganska många kort från AMD har haft 512-bit och HBM är ju ännu mer än så...

Permalänk
Hjälpsam

@Yoshman:
Väldigt spännande vad de lyckets klura ut.
Risken finns förståss, att de inte mäktar med att få in något, som är lika bra som Nvidias lösning.
Nvidia har ju varit först med teknikerna, lite hopp har jag dock för Direct Storage (magkänslan), inte för att det kommer att spela någon roll de närmsta två åren.
Något lägre prestanda på RT räknar jag med.
Svaret på DLSS; möjligtvis något som kommer nära, när det gäller spel som inte specialtränats av Nvidia.

edit

Yosmans inlägg som jag svara på #18617255

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Ase:

Känns som att många missat att vram är för att rita upp bilden på en skärm +lite till ( Högre upplösning =mer vram krävs) effekter hur det är med ray tracing vet jag inte)) & inte hur mycket minne de bör ha för att driva runt grafiken i ett spel tex detta brukar normalt sett kallas internminne typ ddr4

Jag skulle nog villja hävda att det nästan är det motsatta, den delen av VRAMet som behövs som framebuffer är en extremt liten del av den totala mängd minne som används på spelkort. Det är väl framförallt texturer som tar upp den största mängden minne i vramet?

T ex 3840x2160x8 = ~63MB, så det är mängden minne som krävs för att lagra en 2160p bild , även med tripple buffering och eller post-processing som kräver flera bilder så pratar vi inga enorma mängder.

Någon med erfarnhet av spelutveckling och grafikhårdvara får gärna rätta mig om jag tänker fel dock.

edit.hjärnfel

Permalänk
Datavetare
Skrivet av anon5930:

Stämmer, hade för mig det var smalare men 512bit. Borde jag minnas, körde ett 290 Tri-X då.

Nvidia verkar bara haft en krets med 512-bitars buss: GT200-300 (toppkretsen hos 200-serien, Tesla gen 2).

Det som talar emot 512-bitars buss hos big-navi är att GDDRx tyvärr drar rätt mycket ström, framförallt när man går upp på riktigt breda bussar. Sett uppskattningar på att VRAM-delen hos 3080/3090 börjar närma sig 100 W.

Förhoppningsvis blir HBM tillräckligt billigt för att användas på bred front även i konsumentprodukter, att man håller fast vid GDDRx lär primärt vara en kostnadsfråga.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Ase:

Känns som att många missat att vram är för att rita upp bilden på en skärm +lite till ( Högre upplösning =mer vram krävs) effekter hur det är med ray tracing vet jag inte)) & inte hur mycket minne de bör ha för att driva runt grafiken i ett spel tex detta brukar normalt sett kallas internminne typ ddr4

Nu är du ute och cyklar rejält. VRAM är grafikkortets eget minne och används för att lagra texturer, modeller och mycket annat. Minnet som krävs för själva framebuffern är bara några MB, så upplösningen har ingen större påverkan på mängden minne som används.

Vad du kallar internminne (kallas oftast primärminne nu för tiden) är minnet processorn använder, och det har inget att göra med grafikkortet annat än att grafikdata ofta passerar internminnet på vägen till grafikkortet (grafikkort kan också använda primärminne som extra minne, men det är ett helt annat ämne).

Permalänk
Hjälpsam
Skrivet av anon5930:

Var det inte något kort som hade 512 bit till och med? Funderade på 480 då det var ett så extremt törstigt kort men den hade också "bara" 384bit.

RX 480 har 256 bitars buss.
Törstigt?
Ja; jämfört med konkurrenten GTX 1060.
Nej; betydligt snålare är R9 390, som presterar ungefär lika bra.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Inaktiv
Skrivet av Chade:

Jag funderar mer på om det var nvidia som stressade ut i förtid med tanke på deras leveranser. Amd kan lika gärna vara väldigt självsäkra just nu och sikta på en lansering med kort som inte tar slut på ett par minuter.
Men vad vet jag, allt är bara spekulationer just nu.

Jo, känslan av att Nvidia stressat är svår att skaka av sig. Ganska uppenbart nu att det inte fanns tillräckligt med kort tillverkade och därmed denna papperslansering.

Finns nog ingen nackdel för AMD att gå ut med vad de har såvida inte korten är undermåliga. Just nu ger de bort kunderna till Nvidia, eller ja i teorin. Finns inga kort. Hade AMD haft kort skulle de visa dessa nu och alla utom de mest inbitna fanbiysen dumpar Nvidia och köper Radeon. Förutsatt att deras kort är bättre då.

Hade PS5 och XSX testats mer för att ge en bättre hint in vad RDNA2 levererar så hade nog en del frågetecken rätats ut.

Permalänk
Inaktiv
Skrivet av Ratatosk:

RX 480 har 256 bitars buss.
Törstigt?
Ja; jämfört med konkurrenten GTX 1060.
Nej; betydligt snålare är R9 390, som presterar ungefär lika bra.

Jag som slarvade, menade GTX 480. "Grillen".

Permalänk
Medlem
Skrivet av ipac:

Vet inte. Spelar ingen roll eftersom 2080-prestanda inte är konkurrenskraftigt längre (om det är AMDs större chip vi pratar om här).

Inte? Du tror bara det finns ett segment? Är det inte on par med 3090 så är det inte gällande? Vilka kort tror du säljer mest i en generation?
Tar du steam exempelvis så deras hw survey så är det bara 1080 som är avvikande, I övrigt är de första ~50% uppgjorda av i stort bara x060 och x070 serierna, dvs 3060 och 3070 respektive kommer vara de troligaste att sälja mest och därmed ligga runt 2080 prestanda och därmed är ett kort med billigare prislapp i det segmentet väldigt konkurrenskraftigt??

Skrivet av ipac:

Det är ju just total minnesbandbredd (buss och minne) som vi diskuterar, inte bussbredd ensamt.

Sant formuleringsmässigt, dock skrev jag även "inte så ofta" så.

Visa signatur

"One is always considered mad, when one discovers something that others cannot grasp."
- Ed Wood

Permalänk
Medlem
Skrivet av Sveklockarn:

Fortfarande ofattbart att de inte har sin avtäckning förrän 28/10.

Vad väntar de på?

Skrivet av Ratatosk:

Att hinna få produkter som är färdiga att lansera.
Innan dess, är det väl smart att inte visa alla kort?

Skulle information släppas idag, med ett "tillgängligt i butik XX December", så skulle ropen om papperslansering aldrig låta sig tystas. Då är det långt bättre att vänta tills man har något att sälja. Det finns producenter kommer undan med att lansera så långt i förväg, men AMD är inte en av dem.

Permalänk
Hjälpsam
Skrivet av Teddis:

Jag ser inte det kontroversiella. Dels hör man visst rop om 3000-seriens TDP hela tiden. Varje dag och i varje tråd. Och det förtjänar att highlightas.

Men RX 290-serien är väl praktexempel på hur man inte gör när man har en varm SKU. Har absolut inget förberett från tredjepart på lanseringsdagen samt inkluderar en horribelt dålig kylare på referenskortet.

Köpte ett R9 290, när det lanserades för 7 år sedan, med referenskylare.
Det kortet snurrar fortfarande i min systersons dator.
I våras servades kortet, då det börjat överhetta, kylpastan byttes ut och det fick nya värmekuddar, nu går det som det skall.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Ase:

Känns som att många missat att vram är för att rita upp bilden på en skärm +lite till ( Högre upplösning =mer vram krävs) effekter hur det är med ray tracing vet jag inte)) & inte hur mycket minne de bör ha för att driva runt grafiken i ett spel tex detta brukar normalt sett kallas internminne typ ddr4

Förväntar mig en riktig hype som vanligt när det gäller AMD i sverige sen lugnar det ner sig en sådär ett halvår efter & visar sig vara sisådär som vanligt, minns både vega föregångarna & dessutom den så otroligt revolutionerande Bulldozer som var överlägset allt, enligt sweclockers forum & om man var lite skeptisk till delade resurser så fick man rejält med pisk i forumet. Men håller tummarna att de kommer med nåt trevligt igen var all för länge sedan.

Nu spekulerar jag endast. Men hur funkar det med VRAM om DLSS kommer in i bilden? Sänks användningen av VRAM i samband med DLSS eftersom spelet rendrar i en lägre upplösning och sedan skalar upp sig igen? Eller ökar VRAM användningen då man pressar ut mer prestanda med hög "fake" upplösning samtidigt som man maxar all annan eyecandy som Ray-tracing osv?

Tänkar om man t.ex kör framtida spel med betydligt högre krav där nuvarande GPUs raw performance inte räcker till för maxa VRAM användningen. Men istället fuska sig till mer prestanda genom DLSS och kringgå behovet av GPU kraft.

Visa signatur

Chassi: Be Quiet! Silent Glass 802 | Moderkort: ROG STRIX X670E-E Gaming | CPU: AMD Ryzen 9 7950X3D | CPU Kylning: Arctic Liquid Freezer II 420 | GPU: MSI RTX 4090 SUPRIM X | PSU: MSI MEG AI1300P 1300W | RAM: G.Skill 32GB 6000MHz CL30 Trident Z5 Neo | Lagring: Kingston FURY Renegade Gen4 2TB | Skärm: Dell 32" G3223Q 4K IPS 144hz| Headset: Philips Fidelio X2 HR + Sennheiser GSX 1200 PRO AMP | Tangentbord: Corsair K95 RGB Platinum Speed | Mus: Razer Deathadder Elite V3

Permalänk
Medlem
Skrivet av Ratatosk:

Köpte ett R9 290, när det lanserades för 7 år sedan, med referenskylare.
Det kortet snurrar fortfarande i min systersons dator.
I våras servades kortet, då det börjat överhetta, kylpastan byttes ut och det fick nya värmekuddar, nu går det som det skall.

Bra kuriosa. Men att kortet fungerar =/= bra kylare. Jag fick testa på denna och titan-referenskylaren under samma period och skillnaden var natt och dag. Speciellt för öronen.

Visa signatur

i7-2700K 5GHz | 32GB DDR3-1600 | ASUS Maximus V Gene | GTX 980 2-way SLI

Permalänk
Avstängd

Det hade såklart varit perfekt för AMD att släppa sitt typ nu och ta alla dessa arga 3080-kunder från nVidia men jag tror helt enkelt inte de är redo. De finslipar och försöker ordna så det faktiskt blir tilltalande att köpa deras produkt äver konkurrentens. Jag är lite av en AMD-camper men kan erkänna att jag inte är någon fanboy av något. De är grymma på CPU just nu men GPU är nog fortfarande lite svårt för de. Jag hoppas innerligt att jag har fel och att de faktiskt konkurrerar bra, även om det inte är toppsegmentet. Är ändå inte ute efter något idiotiskt som 3090 för spelande precis. Synd bara att 3070 hinner komma före också, för där är det nog värst konkurrens på prestanda/krona.

Permalänk
Medlem

Rörande diskussionen om bussbred är väl Radeon VII kungen med sina 4096-bit?

Visa signatur

Primär: R9 3900X | ASUS X570-F Gaming | NH-D15 | 64GB@3200MHz | RTX 3080 10GB | Seasonic 850W | Fractal Define R6 |
Gamla bettan: i5 750@3.8GHz | 8GB | HD5770 | Corsair VS 550W | FD R2 |

Permalänk
Medlem
Skrivet av Niolator:

Så det blir inga HBM-minnen?

Buildzoid kollade på renderingarna so släpptes i Fortnight och han tycker att fästet för kylflänsen ser ut att gå där minnena i vanliga fall sitter. Vilket då skulle tala för att BigNavi skulle få HBM-minnen.
Men allt är ju bara spekulationer just nu.
https://youtu.be/6uxLy1qWRAk?t=345

Visa signatur

L-ARV: Ryzen R9 5950X, 32Gb@3600, 500Gb + 1Tb nvme, RX 6800XT, CSFG The Crow, OS: Arch
LAN-Burken: Ryzen R7 5600G, 16Gb@3200, RX 6600XT, OS: Windows 10
Kotten: PineBook Pro, OS: Manjaro_ARM
Macbook PRO 13 (2015) OS: Manjaro SWAY

Permalänk
Medlem
Skrivet av Ferrat:

Inte? Du tror bara det finns ett segment? Är det inte on par med 3090 så är det inte gällande? Vilka kort tror du säljer mest i en generation?
Tar du steam exempelvis så deras hw survey så är det bara 1080 som är avvikande, I övrigt är de första ~50% uppgjorda av i stort bara x060 och x070 serierna, dvs 3060 och 3070 respektive kommer vara de troligaste att sälja mest och därmed ligga runt 2080 prestanda och därmed är ett kort med billigare prislapp i det segmentet väldigt konkurrenskraftigt??

Jag tror inte de stora AMD chippen har för avsikt att max konkurrera med RTX3060 nej.

Permalänk

Med alla Lisas uttalanden om "Halo kort". Och "this going to similarly disrupt 4K gaming!"
Och AMD's utlovade 50% mer prestanda/watt än RDNA1.

Så tvivlar jag starkt på, att toppkortet har 256 bitars buss!! Jag tvivlar även på, att prestandan. Skulle vara, "bara" strax över 2080Ti. Den prestandan har ju Lisa vetat om, i snart 2 år. Och hon visste, när hon sa det. Att Nvidia, hade något nytt på G. Förmodligen före AMD.

Visa signatur

9900k på vatten

Permalänk
Medlem
Skrivet av Teddis:

Jag ser inte det kontroversiella. Dels hör man visst rop om 3000-seriens TDP hela tiden. Varje dag och i varje tråd. Och det förtjänar att highlightas.

Men RX 290-serien är väl praktexempel på hur man inte gör när man har en varm SKU. Har absolut inget förberett från tredjepart på lanseringsdagen samt inkluderar en horribelt dålig kylare på referenskortet.

verkligen. 290x fick ett dåligt rykte som ett värmeelement med inkluderad hårtork på grund av den fruktansvärda kylaren de kombinerade den stackars gpun med. egentligen drog det inte mer än 780 ti. jag var jättenöjd med mitt 290x under tiden jag hade det, men jag hade inte referenskylaren.