AMD presentererar RDNA 2 – Radeon RX 6000 och "Big Navi"

Permalänk
Medlem
Skrivet av Nekrol:

DirectStorage kommer ju fungera bättre på RTX kort då de har en inbyggd I/O som tar prestandan längre

Här spekuleras det för fullt ser jag.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem
Skrivet av davidl22:

Nyss införskaffat mig en G-SYNC skärm... Ska man lämna tillbaks och byta ut mot en AMD freesync nu? När nästan GPU man köper troligtvis kommer vara en AMD.

Förövrigt så är jag lättad att AMD äntligen hänger med i spelet när det kommer till graffekort. Hoppas det sätter press på Nvidia så att deras nästa generation kort kommer ha en högre prisvärdhet än som det ser ut nu.

Köp en gsync compatible freesync så får du stöd för både och? Ja om du kan byta den är det nog en god idé, det är en bra funktion att ha.

Permalänk
Medlem

Hmm... 3070 eller 6800 för 1080p144....
Ogillar att byta teknologi ofta (jag sitter fortfarande med ett 1060) så frågan är om dom där extra 8 GB VRAM kan framtidssäkra en något mer. Samtidigt så måste ju prestandan finnas där för att klara av dom inställningar och upplösning som krävs för >8GB VRAM...

Vad tror ni?

Visa signatur

5800X3D @Kombo Strike 3 / 32GB DR RAM @3800MHz,CL16 / 3090 Turbo @1695MHz,0.750V

Permalänk
Skrivet av Dallen:

Men för övrigt, då har man äntligen fått besked om vad för sorts chassi man borde köpa. 6800XT och uppåt tar 2.5 slots, så då kan man inte välja Ghost S1 som annars finns i lager överallt

Om det stämmer är det ju bara AMD:s egna variant. Kommer säkert släppas mer slimmade partnermodeller.

Visa signatur

Asrock Z490M-ITX/ac | i5 10600 | RTX 2060 FE | 16GB DDR4-3200 | Corsair SF450 | A-DATA SP900 128GB | Samsung 970 EVO 500GB | Noctua NH-L9i | Kolink Rocket

Permalänk
Medlem
Skrivet av Kaleid:

Tyvärr så vet vi inte när MS släpper direct storage.

Kommer nog dimpa in runt 2022.

Permalänk
Medlem
Skrivet av elajt_1:

Här spekuleras det för fullt ser jag.

Inte direkt, vi vet vilken hastighet de får ut med directstorage på Xboxen. Och det är inte i närheten av de 14Gb/s som utlovas i RTX I/O.
Även om Nvidia inte får ut den prestanda som utlovats så kommer det fortfarande vara snabbare med RTX I/O. Det är ju trots allt en optimering av DirectStorage. Skulle vara rätt konstigt om de inte fick ut mer hastighet.

Permalänk
Inaktiv
Skrivet av oqvist:

Ja benchade ju bäst i relation av alla kort för visso med shared access memory och de har säkert valt titlar där de fått till det.

Kul hur olika vi alla ser ändå

För mig är inte gaming huvudsyftet. Men hade det varit det ser 6800xt ut som vinnaren. Marginellt sämre prestanda än storebror men betydligt trevligare pris.

Permalänk
Medlem
Skrivet av Calisthenics:

6900xt - bra
6800xt - ok
6800 - menlöst

Ett bra kort, är väl bättre vad AMD har kommit mer på länge. Men Grönt för mig, Nvidia bättre på raytracing och samma pris/prestanda förutom högst upp i prisklassen.

Ser inte vad unique selling point är för att köpa AMD om man inte ska ha 6900xt?

Om man vill ha väldigt många frames för online fps kan jag se mer värde i AMDs serie, förutom priset för 6800 då som egentligen bara finns till för att få 6800xt att se bättre ut i jämförelse. Måste säga att jag börjar ogilla AMDs taktik att ha extra högt pris på den produkten som är steget billigare än den dom vill du ska köpa. Priset för 6800 är faktiskt riktigt kasst jämfört med 6800xt. Jag är också inne på att köra mer spel med ray tracing och single player där jag prioriterar snyggt före 100+ fps och inväntar hur AMD levererar på den punkten och hur deras version av DLSS blir. Det kan bli riktigt bra eller det kan bli en besvikelse, så inget köp innan man vet. Det har man ju lärt sig av Cyberpunk nu om inget annat.

Visa signatur

Att spela är mänskligt

Permalänk
Medlem
Skrivet av Exydia:

Hmm... 3070 eller 6800 för 1080p144....
Ogillar att byta teknologi ofta (jag sitter fortfarande med ett 1060) så frågan är om dom där extra 8 GB VRAM kan framtidssäkra en något mer. Samtidigt så måste ju prestandan finnas där för att klara av dom inställningar och upplösning som krävs för >8GB VRAM...

Vad tror ni?

Om du verkligen tänkt hålla dig till 1080p finns det verkligen ingen anledning att oroa sig över 8GB, det är ofta när man är inne på 4k som minnet kan börja bli bekymmersamt.

Visa signatur

Att spela är mänskligt

Permalänk
Medlem

Oavsett vad så kommer det för alltid att kännas fel att ha nå annat än Intel & Nvidia i min burk. Jag kan bara inte lägga ut massa pengar med gott samvete på det röda laget, sorry.

#fanboy

Visa signatur

Laptop 1: MB Pro m1
Laptop 2: MSI GT73VR TITAN
PC: gtx 1070 - 4770k

Permalänk
Medlem
Skrivet av TM:

Om du verkligen tänkt hålla dig till 1080p finns det verkligen ingen anledning att oroa sig över 8GB, det är ofta när man är inne på 4k som minnet kan börja bli bekymmersamt.

Det är ju snarare så att jag inte har några planer NU på 1440p eller 4K.. Å andra sidan har jag ett fyra år gammalt grafikkort i min burk så det jag köper nu lär troligtvis finnas med mig i drygt två generationer till. Då kanske man ändå på något vis har blivit påtvingad en 4K TV eller monitor.

Visa signatur

5800X3D @Kombo Strike 3 / 32GB DR RAM @3800MHz,CL16 / 3090 Turbo @1695MHz,0.750V

Permalänk
Viking
Skrivet av kallandes:

kraven på minnesstorlek ökar ju dock något, hela tiden. Köper du ett dyrt kort, vill du inte bli begränsad av VRAM. När ditt potentiella favvospel släpps om ett år, och du går in i en vägg med dina 10GB

Jo men nu jämförde vi 16 gb med 24 gb, inte 10 gb. Och jag hoppas och tror att vi inte behöver 16 gb till spel inom nåt år.

Visa signatur

RTX 3080 Gaming X Trio | Ryzen 7 5800X | TridentZ Neo 32GB @3600MHz CL16 | Asus X470-F ROG Strix | Lian Li PC-O11 Dynamic Svart | NZXT Kraken Z73 | 9x Phanteks T30 | LG OLED 27GS95QE 240Hz

Permalänk
Medlem
Skrivet av Greyguy1948:

Kan detta handla om eDRAM cache?
https://en.wikipedia.org/wiki/EDRAM
128 MB cache med transistorer låter dyrt och 28 miljarder borde inte räcka!

Absolut INTE!

IF-Cachen på 128 MB bör ta upp runt 5 miljarder, om det nu stämmer att det ger 3,25x i bandbredd i förhållande till en 'normal' 256-bit GDDR6 buss så är det även en väl spenderad investering då även en bredare buss tar upp en yta och bygger på transistorbudgeten.

Sen så skulle en extern cache baserad på eDram sänka hastigheten, bygga en viss latens samt även äta på transistorbudgeten, då det skulle behövts en extra minneskontroller.

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
Medlem

jämförde benchmark-siffrorna för rtx3080 i 4k och såg då att sweclockers verkar ha fått bättre fps än vad AMD har fått.

Sedan är ju sweclockers average fps medans AMD är "up to" siffror.

Vi får helt enkelt invänta reviews på korten innan vi säger för mycket om prestandan.

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Avstängd

Någon som vet hur långt steg 3440x1440p är från 4K gällande prestandan i fps? Jag antar att med 1440p i avtäckandet så användes 2560x1440p istället så det blir inte riktigt applicerbart för 21:9-formatet?

3440x1440 = 4 953 600
3840x2160 = 8 294 400
4953600/8294400 ~ 41% fler pixlar i 4K så borde få runt kanske 30% bättre prestanda än vad som visades i 4K?

Så länge jag kan komma upp i 100fps på näst högsta inställningar i de flesta spel med upplösningen 3440x1440p så blir jag nöjd!

Visa signatur

"Företagsboendeförmedlare" | Min Überkill Dator: Processor: Intel Pentium P5 66 Mhz OC | Moderkort: ASRock P4I65G | Minnen: 2st Samsung 128MB PC133 | Grafikkort: Canopus GeForce 256 DDR | Lagring: IBM 350 4,4 MB | Operativsystem: DOS/360 | Chassi: Mercury Full-Tower ATX Chassis |

Permalänk
Medlem
Skrivet av Exydia:

Det är ju snarare så att jag inte har några planer NU på 1440p eller 4K.. Å andra sidan har jag ett fyra år gammalt grafikkort i min burk så det jag köper nu lär troligtvis finnas med mig i drygt två generationer till. Då kanske man ändå på något vis har blivit påtvingad en 4K TV eller monitor.

Personligen tycker jag 4k är lite överskattat i spelsammanhang, jag blir mycket mer imponerad av färger, miljöer och den konstnärliga designen av spelskapare än av hur många punkter bilden ritas upp i. 4k ser jag bara som en liten bonus på toppen.

Visa signatur

Att spela är mänskligt

Permalänk
Medlem
Skrivet av BadNewsBrod:

Oavsett vad så kommer det för alltid att kännas fel att ha nå annat än Intel & Nvidia i min burk. Jag kan bara inte lägga ut massa pengar med gott samvete på det röda laget, sorry.

#fanboy

Rätt menlöst att kommentera i en tråd om ett produkt med att du aldrig kommer att köpa av dem. Som att säga att du älskar hundar men bara om det är en chiwawa.

Visa signatur

Asus Tuf Gaming 670e- Plus | Ryzen 7800X3D | Gigabyte GeForce RTX 4090 24GB Gaming OC | G.Skill 32GB (2x16GB) DDR5 6000MHz CL30 Trident Z5 Neo RGB Expo | WD BLACK SN850X 2TB WD - WD BLACK SN850X 1TB - WD Black SSD SN750 1TB | Corsair RM1000e 1000W | Noctua NH-D15S Chromax Svart | Phanteks Enthoo EVOLV ATX | Rog Falchion Mx Cherry | Xtrfy MZ1 Wireless

Skärm: Samsung 49" NEO G9 Ultrawide | Samsung Q90T | Asus TUF Gaming VG27AQ | AOC G2460PQU

Cockpit: Gunfighter Mk.III Base - Modern Combat Grip Ultimate | Gladiator NXT EVO Omni Throttle | Logitech Flight Rudder Pedals | Tobii eye tracker 5

Permalänk
Medlem

Det som stör mig är att AMD knappt visat upp någon RT-prestanda, kommer man t ex kunna använda amd egna RA i Cyperpunk 2077?
1 RA per kluster, men varför så lite info om detta när det är en så stor del av deras ekosystem? Verkar lite udda.

https://www.amd.com/en/technologies/rdna-2

Visa signatur

Ryzen 7 5800x, lg 27gl850, rx 7800 xt

Permalänk
Medlem
Skrivet av magma86:

Det som stör mig är att AMD knappt visat upp någon RT-prestanda, kommer man t ex kunna använda amd egna RA i Cyperpunk 2077?
1 RA per kluster, men varför så lite info om detta när det är en så stor del av deras ekosystem? Verkar lite udda.

https://www.amd.com/en/technologies/rdna-2

"New to the AMD RDNA 2 compute unit is the implementation of a high-performance ray tracing acceleration architecture known as the Ray Accelerator. The Ray Accelerator is specialized hardware that handles the intersection of rays providing an order of magnitude increase in intersection performance compared to a software implementation. *4"

och fotnot 4 säger:

"Measured by AMD engineering labs 8/17/2020 on an AMD RDNA 2 based graphics card, using the Procedural Geometry sample application from Microsoft’s DXR SDK, the AMD RDNA 2 based graphics card gets up to 13.8x speedup (471 FPS) using HW based raytracing vs using the Software DXR fallback layer (34 FPS) at the same clocks. Performance may vary. RX-571"

Så med den datan kanske man kan räkna ut på något vänster hur bra det är.

edit är det detta program? https://github.com/microsoft/DirectX-Graphics-Samples/blob/ma...

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem
Skrivet av Helionart:

Det gör mig bara ledsen. Det ska inte kännas som att din GPU som du pungade ut 18k för, ska bli outperformed en månad efter. Det skulle göra att jag inte köper Nvidia igen, möjligtvis om det skulle bli någon form av trade-in kampanj. Känns som man kannibaliserar sitt eget segment hårt om Nvidia svarar så, med TI modeller på samtliga kort (Så tätt efter en release)

Så har Nvidia, Intel och AMD alltid gjort. Inget nytt direkt..

Permalänk
Medlem
Skrivet av AplAy:

Någon som vet hur långt steg 3440x1440p är från 4K gällande prestandan i fps? Jag antar att med 1440p i avtäckandet så användes 2560x1440p istället så det blir inte riktigt applicerbart för 21:9-formatet?

3440x1440 = 4 953 600
3840x2160 = 8 294 400
4953600/8294400 ~ 41% fler pixlar i 4K så borde få runt kanske 30% bättre prestanda än vad som visades i 4K?

Så länge jag kan komma upp i 100fps på näst högsta inställningar i de flesta spel med upplösningen 3440x1440p så blir jag nöjd!

Du har en fingervisning här: https://www.sweclockers.com/test/29428-snabbtest-spelprestand...

Permalänk
Medlem
Skrivet av Nighthog:

6900XT är ju bara OC version av 6800XT i verkligheten...

Ganska mycket extra pris för det där.

Du missade att det var samma klockor & power budget då? Vad då OC.

Permalänk
Medlem
Skrivet av Dallen:

Men för övrigt, då har man äntligen fått besked om vad för sorts chassi man borde köpa. 6800XT och uppåt tar 2.5 slots, så då kan man inte välja Ghost S1 som annars finns i lager överallt

Jag tänkte vänta in tills FormD's T1 finns att beställa.

Permalänk
Medlem
Skrivet av Nekrol:

Det där är inget svar på DLSS.

Förklara?

Skrivet av CubaCola:

Det där är nog Reflex du menar. DLSS är en helt annan sak.

Hmm.. Två fel gör inte ett rätt

Enda skillnaden är att Nvidia säger sig använda AI för uppskalning av en lägre upplösning och kallar det för DLSS.

AMD Radeon™ Boost kör istället det dynamiskt direkt på kortet utan att blanda in AI.

Båda är uppskalning av en lägre upplösning!

Däremot med en annan attack av problemet, men med ett liknande resultat.

AMD's motsvarighet till Nvidia Reflex är AMD Radeon™ Anti-Lag²

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
Medlem
Skrivet av davidl22:

Nyss införskaffat mig en G-SYNC skärm... Ska man lämna tillbaks och byta ut mot en AMD freesync nu? När nästan GPU man köper troligtvis kommer vara en AMD.

Förövrigt så är jag lättad att AMD äntligen hänger med i spelet när det kommer till graffekort. Hoppas det sätter press på Nvidia så att deras nästa generation kort kommer ha en högre prisvärdhet än som det ser ut nu.

Fundera på det åtminstone.

Nvidia har ju förstått att man förlorat på det här och min budgetskärm (AOC 32 1440p 144hz) synkar numera med mitt Nvidia-kort och den stödjer freesync. Det finns något "blabla-sync" som nvidia numera kan utnyttja som inte är ren g-sync.

"Med AMD FreeSync-stöd är denna skärm kompatibel med både AMD- och NVIDIA-grafikkort." Står det.

Permalänk
Medlem
Skrivet av Bengt-Arne:

Förklara?

Hmm.. Två fel gör inte ett rätt

Enda skillnaden är att Nvidia säger sig använda AI för uppskalning av en lägre upplösning och kallar det för DLSS.

AMD Radeon™ Boost kör istället det dynamiskt direkt på kortet utan att blanda in AI.

Båda är uppskalning av en lägre upplösning!

Däremot med en annan attack av problemet, men med ett liknande resultat.

AMD's motsvarighet till Nvidia Reflex är AMD Radeon™ Anti-Lag²

Måste ha kollat fel flik när jag öppnade din länk för jag såg anti-lag-grejen då.

Men DLSS skalar upp bilden ifrån låg upplösning, medans AMD sänker upplösningen när det rör sig mycket på skärmen om jag förstår det rätt.2 olika saker ändå.

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem
Skrivet av Bengt-Arne:

Förklara?

Hmm.. Två fel gör inte ett rätt

Enda skillnaden är att Nvidia säger sig använda AI för uppskalning av en lägre upplösning och kallar det för DLSS.

AMD Radeon™ Boost kör istället det dynamiskt direkt på kortet utan att blanda in AI.

Båda är uppskalning av en lägre upplösning!

Däremot med en annan attack av problemet, men med ett liknande resultat.

AMD's motsvarighet till Nvidia Reflex är AMD Radeon™ Anti-Lag²

Fast det står ju rätt klart och tydligt där att det rör sig om downsampling av vissa frames och inte någon uppskalning.
Därför jag skrev att det inte är ett svar på DLSS.
Och du får det att låta som att det inte är ett faktum att Nvidia använder sig av AI för att upsampla?

Permalänk
Skrivet av Nighthog:

6900XT är ju bara OC version av 6800XT i verkligheten...

Ganska mycket extra pris för det där.

Felaktigt resonemang.
Du kan överklocka 6900XT likväl som du kan överklocka 6800XT – så även om du skulle lyckas klocka upp 6800XT till 6900XTs nivåer är det rimligt att anta att du kan klocka upp 6900XT på samma sätt (allt annat lika). Deltat kvarstår.

Permalänk
Skrivet av wessmen:

Fundera på det åtminstone.

Nvidia har ju förstått att man förlorat på det här och min budgetskärm (AOC 32 1440p 144hz) synkar numera med mitt Nvidia-kort och den stödjer freesync. Det finns något "blabla-sync" som nvidia numera kan utnyttja som inte är ren g-sync.

"Med AMD FreeSync-stöd är denna skärm kompatibel med både AMD- och NVIDIA-grafikkort." Står det.

"FreeSync was developed by AMD and first announced in 2014 to compete against Nvidia's proprietary G-Sync. It is royalty-free, free to use, and has no performance penalty."
https://en.wikipedia.org/wiki/FreeSync

Vem som helst kan nyttja Freesync.

Permalänk
Medlem

HDMI 2.1 VRR på både AMD och Nvidia kort! Mums! Hoppas på undersökande tester av detta!

Härliga AMD siffror men det oroar att ingen raytracing visades. Dessutom lite trist att AMD kör en ny "inlåsning". Blir ju rätt dyrt att få dom där extra % ifall man ska köpa nytt moderkort, minne och cpu.

Kan knappt vänta på sweclockers AMD-Nvidia jämförande!