Navi Första rykten *navi Tråden*

Permalänk
Medlem

Oron över att en 256 bit minnesbuss skulle vara för liten, kan vara obefogad.
AMD RDNA 2 (Big Navi) May Tackle Ampere’s Bandwidth with Better (and Larger) Cache Hierarchy

Stämmer det som skrivs att cachen blivit dubblad för var minneskontroller för RDNA2 i förhållande till RDNA(1) så kan det närmast gämnföras med Game cache på CPU sidan.
RDNA(1) har 4x256 KB cache per minneskontroller, för 256 bitars minnesbuss används 4 st minneskontrollers.
Det ger 4x256 KB = 1 MB cache per kontroller, med 4 st så är det totalt 4 MB. Då ska (om det stämmer) RDNA2 ha 8 MB.
@jacozz: Jag,tror du har din Game cache här

Märk att 128 MB IF-cache inte nämns/tas upp, gissar på att den främst tar hand om latenser i IF.
---
Angående RT, så är det (mest troligt) implementerat som på Xbox (och PS5).
Lämnar till var och en att spekulera im vad det ger

Källa: https://www.hardwaretimes.com/xbox-series-x-gpu-architecture-...

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
Medlem

Det här är inget inlägg om läckor eller något sånt. Så ni kan ta det lugnt ett litet tag.

Jag kollade igenom AMDs financial presentation igen för att se vad de säger något om RDNA som överensstämmer med ryktena om en ny cache. Ibland kan man med ny information tolka gammal information på ett helt nytt sätt, och det är det som jag tänker göra här.

David Wang säger att designmålen för RDNA (OBS! Serien, alltså RDNA1,2,3,... inte bara 5000-serien) faktiskt är att öka energieffektivitet (duh, visste vi redan) , öka utnyttjandet av bandbredd (!!!) och öka skalbarheten. De introducerade även en ny cache-hierarki i RDNA1 för att ha "låg latens, hög bandbredd och låg energi". Är det bara jag , eller låter det lite som den ryktade infinity-cachen i RDNA2 och att de fortsätter på samma väg? Bara en tanke.

Men anledningen till varför jag återbesökte klippet var för att jag ville påminna mig själv om vad AMDs strategi är med ray tracing. Och jag skulle säga att AMDs största problem kommer vara att få recensenterna att fatta att i princip alla RT-tester som de gör egentligen inte kommer att betyda så mycket.

Låt mig förklara kortfattat: AMD designade DXR 1.1 tillsammans med Microsoft för att öka enkelheten att implementera RT, öka portabiliteten från konsol till PC och öka prestandan hos RDNA2. AMD har även patent som bygger på inline ray tracing. Prestandaförbättringarna beskrivs i denna video (med delen som patentet beskriver vid 6:38 , kolla figur 5). I princip varenda implementation från Series X, PS5 och framåt, kommer att vara på DXR 1.1 , och det är det som är AMDs fördel. De har designat någonting som alla kommer att använda på PC och konsol som är designad för deras hårdvara, och det är upp till NVIDIA att visa att Ampere är mycket bättre än RDNA2 i DXR 1.1 (vilket vi allvarligt talat inte kan veta ännu).

Men nu kommer problemet... testerna som körs i de första recensionerna kommer att vara DXR 1.0 då det inte finns några dxr 1.1 titlar vad jag vet. Ändå kommer det sannolikt vara dem titlarna som utgör majoriteten i framtiden. Så frågan är hur AMD ska förmedla detta om de har sämre prestanda i DXR 1.0 , men bättre i DXR 1.1? Värre är det för AMD om RDNA2 är sämre i DXR 1.1. Om de inte kan slå NVIDIA på sitt eget spel, så kommer de nog aldrig att slå dem.

Permalänk
Medlem
Skrivet av Radolov:

Det här är inget inlägg om läckor eller något sånt. Så ni kan ta det lugnt ett litet tag.

Jag kollade igenom AMDs financial presentation igen för att se vad de säger något om RDNA som överensstämmer med ryktena om en ny cache. Ibland kan man med ny information tolka gammal information på ett helt nytt sätt, och det är det som jag tänker göra här.

David Wang säger att designmålen för RDNA (OBS! Serien, alltså RDNA1,2,3,... inte bara 5000-serien) faktiskt är att öka energieffektivitet (duh, visste vi redan) , öka utnyttjandet av bandbredd (!!!) och öka skalbarheten. De introducerade även en ny cache-hierarki i RDNA1 för att ha "låg latens, hög bandbredd och låg energi". Är det bara jag , eller låter det lite som den ryktade infinity-cachen i RDNA2 och att de fortsätter på samma väg? Bara en tanke.

Men anledningen till varför jag återbesökte klippet var för att jag ville påminna mig själv om vad AMDs strategi är med ray tracing. Och jag skulle säga att AMDs största problem kommer vara att få recensenterna att fatta att i princip alla RT-tester som de gör egentligen inte kommer att betyda så mycket.

Låt mig förklara kortfattat: AMD designade DXR 1.1 tillsammans med Microsoft för att öka enkelheten att implementera RT, öka portabiliteten från konsol till PC och öka prestandan hos RDNA2. AMD har även patent som bygger på inline ray tracing. Prestandaförbättringarna beskrivs i denna video (med delen som patentet beskriver vid 6:38 , kolla figur 5). I princip varenda implementation från Series X, PS5 och framåt, kommer att vara på DXR 1.1 , och det är det som är AMDs fördel. De har designat någonting som alla kommer att använda på PC och konsol som är designad för deras hårdvara, och det är upp till NVIDIA att visa att Ampere är mycket bättre än RDNA2 i DXR 1.1 (vilket vi allvarligt talat inte kan veta ännu).

Men nu kommer problemet... testerna som körs i de första recensionerna kommer att vara DXR 1.0 då det inte finns några dxr 1.1 titlar vad jag vet. Ändå kommer det sannolikt vara dem titlarna som utgör majoriteten i framtiden. Så frågan är hur AMD ska förmedla detta om de har sämre prestanda i DXR 1.0 , men bättre i DXR 1.1? Värre är det för AMD om RDNA2 är sämre i DXR 1.1. Om de inte kan slå NVIDIA på sitt eget spel, så kommer de nog aldrig att slå dem.

Så har det tyvärr varit sedan DX10/11/12 också. AMD har ofta legat en minor före Nvidia, men alla spel måste ju hålla sig till lägsta fungerade som fungerar på alla. Några få spel kommer säkert köra 1.1 också, men det kommer inte bli normen än på många år. Dessutom är det väl mer eller mindre klart att vissa delar är förenklade i AMDs RT implementation, och några steg som körs på tensor i Nvidias fall kommer behöva köras på CPU om jag förstått det rätt. Vi får se vad det betyder i verkligheten, men jag tror Nvidia kommer vinna RT denna generation... nästa däremot kommer bli högst intressant

Permalänk
Medlem
Skrivet av medbor:

Så har det tyvärr varit sedan DX10/11/12 också. AMD har ofta legat en minor före Nvidia, men alla spel måste ju hålla sig till lägsta fungerade som fungerar på alla. Några få spel kommer säkert köra 1.1 också, men det kommer inte bli normen än på många år. Dessutom är det väl mer eller mindre klart att vissa delar är förenklade i AMDs RT implementation, och några steg som körs på tensor i Nvidias fall kommer behöva köras på CPU om jag förstått det rätt. Vi får se vad det betyder i verkligheten, men jag tror Nvidia kommer vinna RT denna generation... nästa däremot kommer bli högst intressant

Alla kort som stöder DXR 1.0 stöder även 1.1 , Turing inkluderat. Således är DXR 1.1 den minsta gemensamma nämnaren. Varför skulle spelutvecklarna lägga ner en massa tid på att göra en helt annorlunda, sämre presterande, version på PC? Men det kan ju förstås fortfarande finnas fall där DXR 1.0 också används, som vid många komplexa shaders.

Vet inte hur man avgör en lösnings komplexitet. Är t.ex koordinatsystemsomvandlare i RDNA2 mer eller mindre komplicerade än lösningen i Turing eller Ampere? Hur ska jag eller någon annan för den delen avgöra blackbox-implementationernas komplexitet? Det är bara att stoppa in dem, köra test och se vad vad man får för resultat. Visst, de kör inte traversal parallellt , men de kör en del andra saker parallellt. Hur hanterar Ampere det? Jag vet inte, kör test och se vad som händer.

Fattar inte vad du menar med att vissa steg måste köras på CPU för tensorkärnorna. Det finns inget spel som i dagsläget använder sig av maskininlärd denosing, kanske kan komma senare nu när NVIDIA kan köra tensorkärnorna parallellt.

Permalänk
Medlem
Skrivet av Radolov:

Alla kort som stöder DXR 1.0 stöder även 1.1 , Turing inkluderat. Således är DXR 1.1 den minsta gemensamma nämnaren. Varför skulle spelutvecklarna lägga ner en massa tid på att göra en helt annorlunda, sämre presterande, version på PC? Men det kan ju förstås fortfarande finnas fall där DXR 1.0 också används, som vid många komplexa shaders.

Vet inte hur man avgör en lösnings komplexitet. Är t.ex koordinatsystemsomvandlare i RDNA2 mer eller mindre komplicerade än lösningen i Turing eller Ampere? Hur ska jag eller någon annan för den delen avgöra blackbox-implementationernas komplexitet? Det är bara att stoppa in dem, köra test och se vad vad man får för resultat. Visst, de kör inte traversal parallellt , men de kör en del andra saker parallellt. Hur hanterar Ampere det? Jag vet inte, kör test och se vad som händer.

Fattar inte vad du menar med att vissa steg måste köras på CPU för tensorkärnorna. Det finns inget spel som i dagsläget använder sig av maskininlärd denosing, kanske kan komma senare nu när NVIDIA kan köra tensorkärnorna parallellt.

Jag var inte så specifik kring vissa saker för att jag helt enkelt inte vet...

Vissa delar av rt-accelerationen som nvidia kör på sina kärnor kan inte göras lika på RDNA och jag förstod det som att dessa steg då körs på CPU. Om jag förstod det rätt kunde nvidia köra vissa av dessa funktioner (som accelereras för rt) på tensorkärnorna också. Dessa saknas ju helt på RDNA vad jag vet och alltså något som behöver köras på CPU.

Spel som redan är släppta eller i djup utveckling kommer inte ändra från 1.0 till 1.1 menade jag bara. Väldigt ofta har ena laget legat före och då blir den lägsta defakto standard. Om det är som du säger att Nvidias kort kan använda 1.1 så lär ju nya spel såklart använda det, men det är inte uppenbart för mig att set var fallet (jag har inte kollat...)

Försök inte ställa mig mot väggen, jag har inte många mer svar, jag bara förklarade hur det varit kring andra liknande situationer förr. Till exempel async compute och annat...

Permalänk
Medlem
Skrivet av Ratatosk:

Men hur realistiskt låter ett sådant pris?
Om nu AMD har ett kort med 1,6 gånger mer minne än 3080 och det presterar ungefär lika bra, varför skulle då AMD sälja detta billigare?

Enda gången som jag ser att det skulle ske är om kretsen är så mycket mindre och därmed får ett bättre utfall vid tillverkning = Tillverkningskostnaderna är mindre till den grad att marginalen finns där.

Man får även lite av den vibben att AMD siktar mot enklare tillverkning om man tänker på den ryktade 256 bit minnesbussen.

Samma gäller användning av GDDR6 vs, GDDR6X:
- GDDR6 har en traditionell design med två nivåer 1 och 0 där energi i princip (teoretiskt) endast går åt i minnesbussen (Läs kontroller i minne och GPU) vid skiftning mellan 1 och 0.
- GDDR6X ökar busshastigheten genom att definiera 4 st analoga nivåer för minnes bussen, man skulle kunna säga 0 -1/3 - 2/3 - 1. Där nivån 0 och 1 står för samma som för GDDR6 energimässigt, men så har vi 1/3 och 2/3 som är lite av svarta fåret då dom ligger i området där energi förbrukas. 0=00 1/3=01 2/3=10 och 1 =11

Ovanpå det så är GDDR6X känsligare för variationer i matningsspänning = det påverkar den definierade nivån, vilket betyder att 1/3 kan misstas som 0 eller 2/3 av mottagaren som ex. en nivå kan alltså bli misstagen/tolkad mot en grann nivå.
Av samma/liknande orsak så måste även ledningsbanorna ha en större signal integritet på kortet.
Det betyder kortare ledningsbanor och/eller fler lager på kortet som skärmar av...

Allt som allt så är AMD's lösning enklare att designa runt och därmed billigare.

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
Hjälpsam

@Radolov:
@medbor:
Vi kan dra analogin DX12 på Pascal.
Pascal klarar DX12, men det klarar det sämre än vad GCN gör, alla som ville vara med i Nvidias partnerprogram fick se till att utveckla för DX11.

Många av de "DX12 titlar" som lanserades var DX11 i grunden, uppsminkade till DX12.
Det var först med Turing som DX12 fick fart, Turing är mycket bättre på DX12 än Pascal och RT fungerar inte på DX11, till det krävs DX12.

Ta inte illa upp, men jag hoppas att du har fel medbor och Radolov har rätt,

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

@Ratatosk:
Bra!

Du satte det på pränt

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
Medlem
Skrivet av medbor:

Jag var inte så specifik kring vissa saker för att jag helt enkelt inte vet...

Vissa delar av rt-accelerationen som nvidia kör på sina kärnor kan inte göras lika på RDNA och jag förstod det som att dessa steg då körs på CPU. Om jag förstod det rätt kunde nvidia köra vissa av dessa funktioner (som accelereras för rt) på tensorkärnorna också. Dessa saknas ju helt på RDNA vad jag vet och alltså något som behöver köras på CPU.

Spel som redan är släppta eller i djup utveckling kommer inte ändra från 1.0 till 1.1 menade jag bara. Väldigt ofta har ena laget legat före och då blir den lägsta defakto standard. Om det är som du säger att Nvidias kort kan använda 1.1 så lär ju nya spel såklart använda det, men det är inte uppenbart för mig att set var fallet (jag har inte kollat...)

Försök inte ställa mig mot väggen, jag har inte många mer svar, jag bara förklarade hur det varit kring andra liknande situationer förr. Till exempel async compute och annat...

RT sker inte likadant på RDNA, vad det gör för skillnad i praktiken vet vi ännu inte. Att det finns en 10 spel som stödjer RT nu gör ingen skillnad om de hundratals som kommer senare kör DXR 1.1 . Lite som att benchmarka DLSS 1.0 nu när DLSS 2.0 finns, bara att i det här fallet kommer det att finnas praktiska användningar för DXR 1.0 också.

BVH skapas på GPU och har gjort så sedan många, många år. I vulkan så kan man skapa den på CPU:n om man vill. Inga steg som inte körs på CPU:n för Turing eller Ampere, kommer inte heller att köras på CPU:n i RDNA2. Traversal sker på CU:s i RDNA2 (mer specifikt, i workgroup mode, som ger mer bandbredd till TMUs, delad LDS, etc) , medan det sker på fixed-function hårdvara i Turing och Ampere. Ingenting i DXR körs på tensorkärnorna, som kan ses i denna bild. Kolla in DXR längst ner, och SMFP16+tensor pipe throughput så ser du att inget sker där.

DXR 1.1 och DXR 1.0 kan köras ihop om man vill. Eller så kan man bara köra den ena av dem. Men i de absolut flesta fall vill man köra DXR 1.1 , om man vill ha någon chans att köra det på konsol dvs, vilket man kommer vilja i 99% av fallen.

Jag försökte inte ställa dig mot väggen. Jag förklarade bara att man i nuläget inte kan avgöra om något är bättre eller sämre. Och jag förstår helt och hållet skepsisen om man ser på tidigare fall. AMD sa ju att de hade jobbat på portabiliteten, så om man enkelt kan ta konsolimplementationen till PC så kommer man att göra det.

Permalänk
Hjälpsam
Skrivet av Bengt-Arne:

@Ratatosk:
Bra!

Du satte det på pränt

Tack!

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

TILLBAKA TILL LÄCKOR!

Navy flounder, Navi22 , är 40CU. och har troligtvis 192-bitars buss.

Permalänk
Skrivet av Radolov:

Det här är inget inlägg om läckor eller något sånt. Så ni kan ta det lugnt ett litet tag.
...

Men nu kommer problemet... testerna som körs i de första recensionerna kommer att vara DXR 1.0 då det inte finns några dxr 1.1 titlar vad jag vet. Ändå kommer det sannolikt vara dem titlarna som utgör majoriteten i framtiden. Så frågan är hur AMD ska förmedla detta om de har sämre prestanda i DXR 1.0 , men bättre i DXR 1.1? Värre är det för AMD om RDNA2 är sämre i DXR 1.1. Om de inte kan slå NVIDIA på sitt eget spel, så kommer de nog aldrig att slå dem.

Detta är biten jag är lite rädd för. Vågar inte hoppas för mycket än.

Visa signatur

AMD Ryzen 5 2600 | MSI B450 Gaming Pro Carbon AC | Corsair 32GB CL 15 (4x8GB) DDR4 3000MHz | Corsair RM750X 750W v2 | MSI RTX 2060 Ventus XS 6GB | NZXT H440 Midi Tower :: ASUS VivoBook 15 X505ZA-BQ252T AMD Ryzen 7 | 2700U Radeon Vega 10
Vilken var din första?

Permalänk
Medlem
Skrivet av Radolov:

RT sker inte likadant på RDNA, vad det gör för skillnad i praktiken vet vi ännu inte. Att det finns en 10 spel som stödjer RT nu gör ingen skillnad om de hundratals som kommer senare kör DXR 1.1 . Lite som att benchmarka DLSS 1.0 nu när DLSS 2.0 finns, bara att i det här fallet kommer det att finnas praktiska användningar för DXR 1.0 också.

BVH skapas på GPU och har gjort så sedan många, många år. I vulkan så kan man skapa den på CPU:n om man vill. Inga steg som inte körs på CPU:n för Turing eller Ampere, kommer inte heller att köras på CPU:n i RDNA2. Traversal sker på CU:s i RDNA2 (mer specifikt, i workgroup mode, som ger mer bandbredd till TMUs, delad LDS, etc) , medan det sker på fixed-function hårdvara i Turing och Ampere. Ingenting i DXR körs på tensorkärnorna, som kan ses i denna bild. Kolla in DXR längst ner, och SMFP16+tensor pipe throughput så ser du att inget sker där.

DXR 1.1 och DXR 1.0 kan köras ihop om man vill. Eller så kan man bara köra den ena av dem. Men i de absolut flesta fall vill man köra DXR 1.1 , om man vill ha någon chans att köra det på konsol dvs, vilket man kommer vilja i 99% av fallen.

Jag försökte inte ställa dig mot väggen. Jag förklarade bara att man i nuläget inte kan avgöra om något är bättre eller sämre. Och jag förstår helt och hållet skepsisen om man ser på tidigare fall. AMD sa ju att de hade jobbat på portabiliteten, så om man enkelt kan ta konsolimplementationen till PC så kommer man att göra det.

Jag hoppas också du har rätt, men ser amn historiskt och vad läckor pratat som så förstod jag det som vissa algoritmer inte skulle fungera lika effektivt på RDNA2 för att visst accelereringsstöd saknades som jag förstod det. Hopps det inte är så och att vi kan få jämlik konkurrens utan vendor-lockin

Permalänk
Hjälpsam
Skrivet av Radolov:

TILLBAKA TILL LÄCKOR!

Navy flounder, Navi22 , är 40CU. och har troligtvis 192-bitars buss.

Nja...
Kan även vara Navi 23, den ryktas ha 40 CU, sedan tidigare.
Hm Flundra och Ciklid, vad är tredje namnet Pike?

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Känns som att alla vill läcka saker nu och hypa denna lansering. Vad är de mest logiska specsen vi kan vänta oss?

HaloNavi 120CU HBM

Navi21 80CU 500mm2 512-bit GDDR6
(or magic 256-bit + cache) (or HBM?)

Navi22 60CU 370mm2 384 GDDR6
(or magic 192 + cache)

Navi23 40CU 250mm2 256 GDDR6
(or magic 128 + cache?)

Klockan borde gå över 2 men kanske upp till 2.5Ghz på CU och sedan vanliga 14/16 GT/s på minnet

Jag föredrar helt klart de utan en magisk cache som ska övervinna alla bekymmer...

Utöver ovan nämnda finns såklart nedskurna varianter också

Hur ser ni andra på läckorna sammantaget?

Permalänk
Skrivet av medbor:

Känns som att alla vill läcka saker nu och hypa denna lansering. Vad är de mest logiska specsen vi kan vänta oss?

HaloNavi 120CU HBM

Navi21 80CU 500mm2 512-bit GDDR6
(or magic 256-bit + cache) (or HBM?)

Navi22 60CU 370mm2 384 GDDR6
(or magic 192 + cache)

Navi23 40CU 250mm2 256 GDDR6
(or magic 128 + cache?)

Klockan borde gå över 2 men kanske upp till 2.5Ghz på CU och sedan vanliga 14/16 GT/s på minnet

Jag föredrar helt klart de utan en magisk cache som ska övervinna alla bekymmer...

Utöver ovan nämnda finns såklart nedskurna varianter också

Hur ser ni andra på läckorna sammantaget?

De mest logiska och realistiska specsen vi kan förvänta oss är nog:

Inget 120 CU

Navi21 80CU 500mm2 256-bit GDDR6

Navi22 Bantad Navi 21 med defekta CU's - ~60CU 370mm2 (500mm^2) 256-192 bit GDDR6

Navi22 40CU 250mm2 192 bit GDDR6

Klockan borde kunna nå över 2 GHz för navi 22 men kanske maxa ut runt 1,8 GHz för Navi 21 på 80 CU och sedan vanliga 14/16 GT/s på GDDR6- minnet.

Jag tror mycket av magin och prestandan ligger i förbättrad arkitektur (Något högre IPC mot Navi 1, samt att de jobbat vidare med minneshanteringen för att inte göra kortet lika bandbreddshungrigt).

Jag tror inte att man ska stirra sig blind på minnesbandbredden i sig, utan vad man gör med den. Kan vara så att de smällt in en asfet instruktionscache med bandbredd motsvarande SRAM för att avlasta GDDR-RAMet i övrigt t.ex. De kan också ha förbättrat sin variant av Tile based deferred rendering så pass att 512 GB/s är mer än tillräckligt.

Många rykten känns väldigt tagna ur luften, rent clickbait skulle man också kunna kalla det.

Med det sagt tror jag nog definitivt att Navi 21 kan ge 3080 en ärlig match i rasterprestanda. RT kan man ju hoppas är likvärdig 3070, och ett pris som ligger där någonstans emellan.

Visa signatur

i7 6700k @4,1 base - 4,4 Turbo | XFX 590X Fatboy | Gigabyte Z270 D3 | 2x16 GB Corsair Vengence 3200MHz Cl 16| Intel 750 400GB |EVO 970 1 TB Steamdrive| 64TB thin provision

Permalänk
Medlem
Skrivet av The Kristoffer:

De mest logiska och realistiska specsen vi kan förvänta oss är nog:

Inget 120 CU

Navi21 80CU 500mm2 256-bit GDDR6

Navi22 Bantad Navi 21 med defekta CU's - ~60CU 370mm2 (500mm^2) 256-192 bit GDDR6

Navi22 40CU 250mm2 192 bit GDDR6

Klockan borde kunna nå över 2 GHz för navi 22 men kanske maxa ut runt 1,8 GHz för Navi 21 på 80 CU och sedan vanliga 14/16 GT/s på GDDR6- minnet.

Jag tror mycket av magin och prestandan ligger i förbättrad arkitektur (Något högre IPC mot Navi 1, samt att de jobbat vidare med minneshanteringen för att inte göra kortet lika bandbreddshungrigt).

Jag tror inte att man ska stirra sig blind på minnesbandbredden i sig, utan vad man gör med den. Kan vara så att de smällt in en asfet instruktionscache med bandbredd motsvarande SRAM för att avlasta GDDR-RAMet i övrigt t.ex. De kan också ha förbättrat sin variant av Tile based deferred rendering så pass att 512 GB/s är mer än tillräckligt.

Många rykten känns väldigt tagna ur luften, rent clickbait skulle man också kunna kalla det.

Med det sagt tror jag nog definitivt att Navi 21 kan ge 3080 en ärlig match i rasterprestanda. RT kan man ju hoppas är likvärdig 3070, och ett pris som ligger där någonstans emellan.

Med tanke på allt gott som sägs om Apples gpuer på senaste åren och alla läckor om bättre energieffektivitet, lägre krav på VRAM-bandbredd så kanske RDNAs nyckel är just TBDR?

Om allt är ändrat för att optimera det flödet ska ju energieffektivitet och annat ändras åt det hållet som det spås... bara en lös tanke.

När man dessutom lägger på att Samsung licensierade AMD för GPU (vilket användningsområde, jag tror det var mobil) tyder ju ännu mer på att det kan vara TBDR. Tänk bara vilka sjuka laptop-kort/APUer det skulle kunna betyda...

Som sagt ren spekulation från min sida, och @Yoshman brukar säga att det inte är bra för DX/vanliga spel på PC...

Permalänk
Medlem

Ännu mer läckor...
Dimgrey Cavefish är nästa kodnamn (Navi23). Stöd för den och Van Gogh landar i Linux OpenGL driver.
(Van Gogh är en Zen2+RDNA2 APU , så jag tycker att den räknas)

Permalänk
Medlem
Skrivet av Radolov:

Ännu mer läckor...
Dimgrey Cavefish är nästa kodnamn (Navi23). Stöd för den och Van Gogh landar i Linux OpenGL driver.
(Van Gogh är en Zen2+RDNA2 APU , så jag tycker att den räknas)

Kan någon förklara ryktena angående nästa APUer?

Det finns alltså
Zen2 + RDNA2 (logiskt, samma som konsolerna)
Zen3 + Vega (varför återuppliva gammal skräp igen?)

Varför finns båda dessa och varför vega? Jag ser ingen logik alls om inte möjligen alla zen3 har en eller två Vega-CU i i/o-die eller något annat mysko (så att alla har ett grafikkort iaf?), men känns helt malplacerat...

Permalänk
Hjälpsam
Skrivet av Radolov:

Ännu mer läckor...
Dimgrey Cavefish är nästa kodnamn (Navi23). Stöd för den och Van Gogh landar i Linux OpenGL driver.
(Van Gogh är en Zen2+RDNA2 APU , så jag tycker att den räknas)

Dimgrå grottfisk, inte gädda som jag hoppades.

edit Verkar som att detta är inlägg 25 000 från min sida.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Skrivet av medbor:

Med tanke på allt gott som sägs om Apples gpuer på senaste åren och alla läckor om bättre energieffektivitet, lägre krav på VRAM-bandbredd så kanske RDNAs nyckel är just TBDR?

Om allt är ändrat för att optimera det flödet ska ju energieffektivitet och annat ändras åt det hållet som det spås... bara en lös tanke.

När man dessutom lägger på att Samsung licensierade AMD för GPU (vilket användningsområde, jag tror det var mobil) tyder ju ännu mer på att det kan vara TBDR. Tänk bara vilka sjuka laptop-kort/APUer det skulle kunna betyda...

Som sagt ren spekulation från min sida, och @Yoshman brukar säga att det inte är bra för DX/vanliga spel på PC...

Ren tbdr verkar gå bort om man vill pusha sina vertex shaders / har mycket geometri eller djup i en bild, men både AMD och Nvidia renderar ju med hjälp av en hybridteknik redan idag där de försökt ta det bästa från två världar. Immidiate mode tilebased, typ.
Kan ju vara en teknik som inte är fulländad hos dem idag och med lite hjälp kanske skulle kunna krympa behovet av bandbredd. Gammal länk, men Anand går igenom det väl, håller bra fortfarande: https://www.anandtech.com/show/4686/samsung-galaxy-s-2-intern...

Visa signatur

i7 6700k @4,1 base - 4,4 Turbo | XFX 590X Fatboy | Gigabyte Z270 D3 | 2x16 GB Corsair Vengence 3200MHz Cl 16| Intel 750 400GB |EVO 970 1 TB Steamdrive| 64TB thin provision

Permalänk
Medlem

Man kan ha hur mycket geometri som helst i bilden och ändå köra TBDR, men några vertex shaders blir det inte, och tesseleringen blir klart begränsad (man kan ha tesselering redan i geometri-enheten, men då är det begränsat till vad den enheten kan göra - inga generella shaders där, inte).

Visa signatur

5900X | 6700XT

Permalänk
Skrivet av mpat:

Man kan ha hur mycket geometri som helst i bilden och ändå köra TBDR, men några vertex shaders blir det inte, och tesseleringen blir klart begränsad (man kan ha tesselering redan i geometri-enheten, men då är det begränsat till vad den enheten kan göra - inga generella shaders där, inte).

Tack, var ett tag sedan jag läste den där. 🙂

Visa signatur

i7 6700k @4,1 base - 4,4 Turbo | XFX 590X Fatboy | Gigabyte Z270 D3 | 2x16 GB Corsair Vengence 3200MHz Cl 16| Intel 750 400GB |EVO 970 1 TB Steamdrive| 64TB thin provision

Permalänk

Har 256 bitars gränssnitt bara emulerats för att förvirra läckare?
Tweet

Och Hex för Dimgrey är "696969" Dimgrey Hex
Dimgray cavefish är 6900XT!

Haha, fan vad AMD subtilt Jebaitar folk.

Visa signatur

i7 6700k @4,1 base - 4,4 Turbo | XFX 590X Fatboy | Gigabyte Z270 D3 | 2x16 GB Corsair Vengence 3200MHz Cl 16| Intel 750 400GB |EVO 970 1 TB Steamdrive| 64TB thin provision

Permalänk
Medlem
Skrivet av The Kristoffer:

Har 256 bitars gränssnitt bara emulerats för att förvirra läckare?
Tweet

Och Hex för Dimgrey är "696969" Dimgrey Hex
Dimgray cavefish är 6900XT!

Haha, fan vad AMD subtilt Jebaitar folk.

Hehe... inte omöjligt.
Jag tror faktiskt att de läckta bilderna på kortet med 256 bitars buss i själva verket är uppföljaren till 5700-serien och inte "BigNavi".

Visa signatur

🖥️ AMD Ryzen 3700x, MSI B350 Mortar Arctic, Corsair lpx 3200, Sapphire 6900XT Nitro, Mbpro 15, MacMini.

Permalänk
Medlem
Skrivet av Ratatosk:

Dimgrå grottfisk, inte gädda som jag hoppades.

edit Verkar som att detta är inlägg 25 000 från min sida.

Hurra på 25 000-inläggs-dagen!

Visa signatur

🖥️ AMD Ryzen 3700x, MSI B350 Mortar Arctic, Corsair lpx 3200, Sapphire 6900XT Nitro, Mbpro 15, MacMini.

Permalänk
Medlem
Skrivet av Ratatosk:

Dimgrå grottfisk, inte gädda som jag hoppades.

edit Verkar som att detta är inlägg 25 000 från min sida.

Hur många tangentbord har det gått åt? 😋

Visa signatur

Ryzen 7 5800x / Fractal Design celsius s24 / asus rog crosshair 7 hero wifi / 32gb g.skill 3600mhz cl16 trident Z neo C / MSI Radeon RX5700XT Gaming X / samsung 970 EVO Plus 500gb nvme / Western Digital blue 500gb ssd.

Permalänk
Hjälpsam
Skrivet av jacozz:

Hurra på 25 000-inläggs-dagen!

Tack!

Skrivet av Insanyrd:

Hur många tangentbord har det gått åt? 😋

Vet sjutton, frågar mig ibland hur mycket tid som gått åt.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Hjälpsam

För ett tag sedan var det många som var sura på AMD eftersom de släpper sina kort senare än Nvidia.
Det hette bla. att AMD inte skulle få några kort sålda, eftersom alla som ville uppgradera, redan köpt Nvidia.
Har ni tänkt på vad tyst det varit om detta på senare?

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Ratatosk:

För ett tag sedan var det många som var sura på AMD eftersom de släpper sina kort senare än Nvidia.
Det hette bla. att AMD inte skulle få några kort sålda, eftersom alla som ville uppgradera, redan köpt Nvidia.
Har ni tänkt på vad tyst det varit om detta på senare?

Ja det har verkligen varit en katastrofal lansering av Nvidia.