AMD avtäcker RDNA 3 och Radeon RX 7000-serien

Permalänk
Medlem
Skrivet av Clasito:

Det är rätt tydligt att 7900xtx är runt 50-60% snabbare än 6950xt. RT med liknande stort kliv, vad är svårt att förstå. Det är PR smörja, självklart är detaljerna otydliga men i stora drag vet vi hur den presterar.

Vi kan ju ta det här med FSR i raytracing graferna.

Raytracing har inte ökat något mer än prestandan för övrigt. FSR har tydligen tagit ett jättekliv och ger helt plötsligt 3 gånger prestandan. Hur gick det till? Varför visar man inte några spel som faktiskt kör detta, om det nu är så fantastiskt?

Jag tror AMD såg Nvidias frame generation för några veckor sedan och började jobba på en egen version. Bläcket för en första draft har precis torkat på papperet. Men AMD announcar det som om det redan är halvklart och testerna är körda. Är det seriöst? Finns detta ens i Cyberpunk som dom påstår?

Visa signatur

- 5090

Permalänk
Medlem
Skrivet av megaman01:

Sjukt ändå att man satsar på dp 2.1 och använder det som marknadsföring? Inget av dagen kort och förmodligen inte dess efterträdare heller kommer kunna nyttja bandbredden på särskilt många spel. Och skärmar finns väl inte ens idag och lär kosta apa. Vem behöver en 8k skärm inom närmaste åren?
Nya spel klarar väl typ 4k/120 på sin höjd med det kortet. Det är halva dp1.4s kapacitet..

Du har nog missat något då, DP 1.4 klarar med hårfin marginal 4K@120Hz. Vill kan köra högre frekvens och/eller HDR så blir man tvungen att använda DSC-komprimering och/eller sänka färgdjupet.

Att det inte finns skärmar som utnyttjar DP 2.1 än beror på att det inte finns grafikkort att driva dem med, vi kommer säkert se en del DP 2.1-skärmar dyka upp nu när grafikkorten börjar komma. Att Nvidia stannar kvar på DP 1.4 än så länge kommer förstås dämpa utvecklingen en del, men AMD kommer nog se till att det kommer ut en några DP 2.1-skärmar nu när de har den fördelen.

Permalänk
Medlem
Skrivet av Mocka:

Ja, nVidia är inte fläckfria och har haft flera allvarliga incidenter med specifika spel eller grafikkortsmodeller - dock brukar de lösa dem relativt snabbt.

Så längesedan? Har för mig jag läste om sådant på AMD forum bara för 2-3 år sedan.

På Luciadagen

Släpps på Lucia ja. Dröjer väl i Sverige skulle jag tro..

"AMD-skärmen är mörk och svart, endast Nvidia är vaken"..
"Skärmen går tunga fjät, runt gård och stuva".

"Nvidia killed the Radeon-star".

Permalänk
Medlem
Skrivet av perost:

Du har nog missat något då, DP 1.4 klarar med hårfin marginal 4K@120Hz. Vill kan köra högre frekvens och/eller HDR så blir man tvungen att använda DSC-komprimering och/eller sänka färgdjupet.

Att det inte finns skärmar som utnyttjar DP 2.1 än beror på att det inte finns grafikkort att driva dem med, vi kommer säkert se en del DP 2.1-skärmar dyka upp nu när grafikkorten börjar komma. Att Nvidia stannar kvar på DP 1.4 än så länge kommer förstås dämpa utvecklingen en del, men AMD kommer nog se till att det kommer ut en några DP 2.1-skärmar nu när de har den fördelen.

Klart det kommer skärmar som kommer köra 2.1. Men känns ganska fattigt med anledningar att haka upp sig på en presentation att man ska få användning av dom frames man betalar för precis som det skulle va problem att driva alla frames i 4K idag, som endast en bråkdel har för den delen. Jag kör 4K/240 alldeles utmärkt både med hmdi 2.1 och DP 1.4 som jag kör med just nu. 10 bitar och HDR med för den delen.

Visa signatur

CPU: i9 12900K Corsair H170i Elite Capellix Push/Pull 140x6 MODERKORT: Gigabyte Z690 Aorus Master
GPU: MSI GeForce RTX 4090 SUPRIM LIQUID X RAM: 32Gb DDR5 Corsair Dominator RGB @6200Mhz CL36
MONITOR 1: Samsung 32" Odyssey Neo G8 4K 240Hz "MONITOR 2": 4K 55” LG G4 OLED TV
PSU: Asus ROG Strix 1000W HDD: 2st WD Black SN850 M.2 1tb

Permalänk
Medlem
Skrivet av megaman01:

Jag kör 4K/240 alldeles utmärkt både med hmdi 2.1 och DP 1.4 som jag kör med just nu. 10 bitar och HDR med för den delen.

Och i båda fallen använder du då DSC-komprimering. Det fungerar för det mesta bra, men det är ändå av nödvändighet en förstörande komprimering som i vissa situationer kan märkas av. Med DP 2.1 behöver man inte kompromissa.

Permalänk
Medlem
Skrivet av Gruarn:

Varför jämför du med AD103 när argumentet frågan är "Varför nvidia inte kommer att sänka priset på 4090 när 7900XTX är så mycket billigare men nästan lika bra (i spel)"?

Diskussionen rörde både 4090 och 4080 vad jag kan se.

Navi31-kort kommer i praktiken kommer tävla mot AD103-kort, inte AD102-kort. Mao, denna lansering kommer i huvudtaget inte påverka 4090.

Permalänk
Medlem
Visa signatur

[ASUS STRIX B650-A | AMD Ryzen 7600X | 32Gb DDR5 6000MHz CL36 | GeForce RTX 4080]

Permalänk
Medlem
Skrivet av Yasko:

Att det är 300 dollar billigare än Nvidias fantasipriser säger ju inget till oss konsumenter som inte vill bränna 15k för en GPU. Vore bra om de även gav oss riktpriser till sina mer realistisk prissatta produkter.

Ehh, goddag yxskaft på dig med.

Det var du själv som ställde frågan utifrån perspektivet "direktkonkurrent med 4080".

Permalänk
Medlem
Skrivet av perost:

Och i båda fallen använder du då DSC-komprimering. Det fungerar för det mesta bra, men det är ändå av nödvändighet en förstörande komprimering som i vissa situationer kan märkas av. Med DP 2.1 behöver man inte kompromissa.

Sista OT i ämnet: Så HMDI 2.1 borde ha "bättre" bild då mao? Googlat lite på detta och det verkar vara så att detta inte spelar nån som helst roll för bilden under 240Hz. Märker iaf ingen skillnad.

Visa signatur

CPU: i9 12900K Corsair H170i Elite Capellix Push/Pull 140x6 MODERKORT: Gigabyte Z690 Aorus Master
GPU: MSI GeForce RTX 4090 SUPRIM LIQUID X RAM: 32Gb DDR5 Corsair Dominator RGB @6200Mhz CL36
MONITOR 1: Samsung 32" Odyssey Neo G8 4K 240Hz "MONITOR 2": 4K 55” LG G4 OLED TV
PSU: Asus ROG Strix 1000W HDD: 2st WD Black SN850 M.2 1tb

Permalänk
Medlem
Skrivet av Zirgo:

Skulle vara intressant och få se källa på dina påstående.
Det finns väl inga tester ännu.

Man kan utgå ifrån amds påståenden om ex 1.7 av 6950xt i cyberpunk och runt 1.5 gånger för allt annat. för att räkna ut ovanstående. Kortet lär knappast vara betydligt snabbare än vad AMD påstått. Motsatsen kan dock inträffa.

Visa signatur

Stationär: Fractal Design Torrent, Asus Prime X870, 9800X3D, Corsair Venegeance 6000mhz, 1TB PCIE 4.0 Kingston, 1TB Corsair MP400, Asus Rog Astral OC RTX 5090.

Permalänk
Medlem
Skrivet av perost:

Du har nog missat något då, DP 1.4 klarar med hårfin marginal 4K@120Hz. Vill kan köra högre frekvens och/eller HDR så blir man tvungen att använda DSC-komprimering och/eller sänka färgdjupet.

Att det inte finns skärmar som utnyttjar DP 2.1 än beror på att det inte finns grafikkort att driva dem med, vi kommer säkert se en del DP 2.1-skärmar dyka upp nu när grafikkorten börjar komma. Att Nvidia stannar kvar på DP 1.4 än så länge kommer förstås dämpa utvecklingen en del, men AMD kommer nog se till att det kommer ut en några DP 2.1-skärmar nu när de har den fördelen.

Precis, någon måste ta första steget. Bra att AMD gjorde det.

Jag själv har en äldre 4K@144Hz skärm som jag kör i 120Hz pga DP1.4. Nu har förstås inte den skärmen möjlighet att bli bättre, men nästa skärm jag köper kommer ha DP2.1.

Permalänk
Medlem
Skrivet av Gruarn:

Det kommer inte att hända, iaf inte i någon större omfattning. Det finns lite olika skäl:
1. AMDs mindre kretsar kostar mycket mindre att tillverka. AMD kan med andra ord alltid kontra en sänkning från nvidia och fortfarande tjäna pengar på korten hela vägen ner till den punkt där nvidia gör förlust. Och nvidia kommer inte att sälja sin kassako med förlust.

Det här är en viktig poäng. RX7900xtx är helt enkelt billigare att tillverka, och det är det kanske starkaste motivet för konstruktionen.

Citat:

2. Gamers är bara en bonus för nvidia. Den viktiga, och riktigt köpstarka, gruppen är (semi-)professionella som använder korten för att tjäna pengar. För dem blir det en investering och frågan om 4080 eller 4090 handlar om vilka inkomster de förväntar sig som en följd av det beslutet. Den här gruppen har över huvud taget inget intresse för 7900 XTX då de antagligen använder programvara idag som drar nytta av CUDA. De har köpt in sig och blivit leverantörsberoende, så de kan inget göra oavsett prissättning.

Även om det kanske är att ta i att gamers bara är en bonus för Nvidia, är detta en poäng man måste ha i åtanke. Jag har tidigare sagt att jag inte känner en enda fysisk person som köpt ett 3080 eller 3090 för egna pengar, de sitter i räkneburkar och photo/video datorer. Ett enda används också för spel (och köptes in på firman).
Om man skall ha en CUDA-bestyckad workstation så betalar man inte med egna pengar, priset, inom rimliga gränser, spelar mindre roll. AMD har inte tillnärmelsevis samma stöd från andra marknader, utan är mycket mer beroende av PC-spelare.

Citat:

Sedan får man fundera också, vad är det för skillnad på kretsen som används i 4090 och kretsarna som går in i superdatorer? Desto mindre skillnad, desto mindre skäl för nvidia att börja skruva på priserna.

Volymer spelar roll. Och Nvidia har dedicerade produkter för HPC.

Citat:

Som sagt, nvidia har väldigt lite skäl att korrigera priserna baserat på ngt RDNA-relaterat som AMD släpper. Då är CDNA ett större hot, men som sagt: Vendor lock-in spelar stor roll även här.

Detta är en piprensare. Nu vet de hur de ska göra. Nu finns det inget skäl att inte ta fram en krets som är 400-500kvmm som har dubbelt så många shaders som 6950... Frågan är om de väntar till nästa generation tills de tar fram den, eller om det kan ske tidigare?

Skälet att inte ta fram en sådan krets är ekonomiskt. Vad skulle försäljningsvolymen behöva vara för att den fasta kostnaden för design och litografimasker (ouch!) skulle bli rimlig per såld krets? Det här segmentet säljer helt enkelt inga jättevolymer för AMD som det är, och en halo-produkt skulle rimligen sälja ännu mycket mindre. För så vitt de inte ser det som motiverat att finansiera från marknadsföringsbudgeten, är det inte säkert att det är ekonomiskt försvarbart att producera en sådan GPU. De gjorde till exempel aldrig en större version av Polarisgenerationen än 232mm2, fast det naturligtvis var fullt möjligt.

Citat:

Om man är gamer. Inte om man använder kortet för att tjäna pengar:)

Precis.

Permalänk
Medlem
Skrivet av ipac:

Ehh, goddag yxskaft på dig med.

Det var du själv som ställde frågan utifrån perspektivet "direktkonkurrent med 4080".

Du vet väl om att den klassen brukar ligga under 10k va?

Visa signatur

Moderkort: Gigabyte X570 AORUS MASTER rev 1.2 Processor: AMD Ryzen 7 5800X3D Kylning: Corsair be quiet! Dark Rock Pro 4 Minne: 32 GB Crucial Ballistix 3600 MHz Grafikkort: AMD Radeon™ RX 9070 XT Taichi 16GB OC Hårddiskar: Corsair Force MP600 1TB M.2, Seagate BarraCuda 4TB 5400rpm Nätagg: Corsair RM850x V2 Chassi: Fractal Meshify 2 Compact Skärm: LG C3 77 tums TV

Permalänk
Medlem
Skrivet av megaman01:

Sista OT i ämnet: Så HMDI 2.1 borde ha "bättre" bild då mao? Googlat lite på detta och det verkar vara så att detta inte spelar nån som helst roll för bilden under 240Hz. Märker iaf ingen skillnad.

I teorin så skulle HDMI 2.1 kunna komprimera mindre än DP 1.4 eftersom den klarar högre bandbredd, men jag vet inte hur DSC implementeras i praktiken. Det kan hända att skärmen använder samma komprimering oavsett HDMI eller DP eftersom båda använder DSC.

Men oavsett om du märker av det eller ej så är min poäng mer att vi redan idag måste kompromissa en del för att DP 1.4 och HDMI 2.1 inte räcker till, och DP 2.0 (som har samma bandbredd som 2.1) släpptes för flera år sedan. Så frågan är inte varför AMD hoppat på DP 2.1, utan varför Nvidia inte gjort det. Och när Nvidia lämnar målet öppet för AMD så passar de förstås på att ta en enkel poäng.

Permalänk
Medlem

Finns potential till ordentliga OC-kort.

https://videocardz.com/newz/amd-radeon-rx-7900-gpus-are-desig...

Permalänk
Medlem
Skrivet av ipac:

Var det första jag tänkte på. Ingen kommer köpa ett XT pm mam kan få XTX för bara en 100-ing till.

Lite hål i huvudet av AMD där...

55W lägre förbrukning spelar in för mig, så jag är nog mest sugen på ett 7900XT. Eller möjligen en ännu lägre modell.

Får se hur landet ligger när riktiga tester kommer ut.

Visa signatur

Gammal och gnällig

Permalänk
Medlem
Skrivet av Yasko:

Du vet väl om att den klassen brukar ligga under 10k va?

Nej jag visste inte att direktkonkurrenter till 4080 brukar ligga under 10K.

Men iaf, du undrar varför AMD inte utannonserar billigare kort nu: För att de inte släpps än på ett tag. Solklart?

Permalänk
Medlem
Skrivet av Lussarn:

Vi kan ju ta det här med FSR i raytracing graferna.

Raytracing har inte ökat något mer än prestandan för övrigt. FSR har tydligen tagit ett jättekliv och ger helt plötsligt 3 gånger prestandan. Hur gick det till? Varför visar man inte några spel som faktiskt kör detta, om det nu är så fantastiskt?

Jag tror AMD såg Nvidias frame generation för några veckor sedan och började jobba på en egen version. Bläcket för en första draft har precis torkat på papperet. Men AMD announcar det som om det redan är halvklart och testerna är körda. Är det seriöst? Finns detta ens i Cyberpunk som dom påstår?

Quotar mig själv och drar tillbaka hela detta. Vad dom gör är nog att köra Cyberpunk på FSR1 i frimärksläge. Det förklarar framerate, och även varför dom inte visar någon film på det.

Visa signatur

- 5090

Permalänk
Medlem
Skrivet av ipac:

Inte ens Nvidia kan vara så onda att de sänker priset en månad efter release.

Antingen gör de det innan release eller "nån gång nästa år".

Bara för nvidia att lägga till valfritt suffix efter kortets namn och sälja detta "nya" kort billigare. Så var den frågan ur världen 😁

Visa signatur

Star citizen - swedish umbrella. En svensk union för er spelare och organisationer som tycker om demokratiska val.
https://robertsspaceindustries.com/orgs/SWEUMB
Discord:
https://discord.com/invite/j5AkGERJz3

Permalänk
Medlem
Skrivet av lincoln:

55W lägre förbrukning spelar in för mig, så jag är nog mest sugen på ett 7900XT. Eller möjligen en ännu lägre modell.

Får se hur landet ligger när riktiga tester kommer ut.

Samma här! Det känns dock liiite fel att köpa ett sämre kort som har sämre prestanda per krona, men jag letar ju efter ett energieffektivt kort så jag får försöka fokusera på det istället. Hittills ser 7900XT mest intressant ut.

Permalänk
Medlem
Skrivet av Lussarn:

Quotar mig själv och drar tillbaka hela detta. Vad dom gör är nog att köra Cyberpunk på FSR1 i frimärksläge. Det förklarar framerate, och även varför dom inte visar någon film på det.

Jag tycker du låter lite som en surkorv, har du köpt ett Nvidia kort nyligen?
Nu ska vi vara glada för att Nvidia har någon konkurrent.

Permalänk
Medlem
Skrivet av Rebe1:

7800 XT $699 (6800 XT kostade $649)
7700 XT $499 (6700 XT $479)
7600 XT $399 (6600 XT $379)

Inte omöjligt om du frågar mig.

Ja om man menar att $500 är 6000 SEK området så kan det gå.

Beror på vad 7700XT är för nått. Gissar att 7700XT är en skadeskjuten Navi32. 3 MCDs (12 GB) och kanske 48 CUs. Förutsatt att 7800XT är full Navi32 (64 CU/4 MCDs) då. Om det räcker till 6950 prestanda får vi se, kanske.

Permalänk
Medlem
Skrivet av xc:

Jag tycker du låter lite som en surkorv, har du köpt ett Nvidia kort nyligen?
Nu ska vi vara glada för att Nvidia har någon konkurrent.

Ja, vad jag reagerar över är att inget har förändrats. Fortfarande ungefär samma läge som förra generationen. Fortfarande kass RT. Och det ursäktas med att man ALLTID kommer ligger en gen efter Nvidia, WTF. När jag kollar på intels kort, även om mycket inte verkar fungera så har dom iallafall ungefär samma RT som Nvidia. På första försöket. Vad är det som gör att AMD inte kan klara av detta? Varför får dom alltiod en free pass. Varför får dom aldrig över 15% market share. Istället för alla ursäkter är det dags att sätta ner foten.

Visa signatur

- 5090

Permalänk
Medlem
Skrivet av Michael1:

Hoppas det, jag gillar att ha lite flex utrymme på min hårdvara.
nvidia är rätt tråkig just nu med 40-serien, såpass att det inte är värt att sätta custom block på ett…

Visa signatur

[ASUS STRIX B650-A | AMD Ryzen 7600X | 32Gb DDR5 6000MHz CL36 | GeForce RTX 4080]

Permalänk
Medlem
Skrivet av Stan Carley:

Samma svar som jag gett dom senaste åren, vad behövs det till? Känns som hårdvaran för länge sen sprang om mjukvaran.
Viljan att skapa kraftfullare saker har blivit som jakten på atombomben, ett vapen som är för kraftfullt för den värld där det är tänkt att användas.

Dagens beräkningskraft är absolut en begränsande faktor i väldigt många yrkesmässiga tillämpningar.

Permalänk
Medlem

Mer intresserad av amd’s lineup än nvidias. Behöver inte råprestandan hos 4090, men vill ha ett vettigare pris istället. Och det verkar ju amd förhoppningsvis kunna bring to the party. Inte riktigt lika hypad på deras am5 efter lansering dock får jag säga med allt snack kring IHS:en och prissättningen.

Visa signatur

🖥️ Fractal Design Node 804 • Asrock Fatal1ty X99M Killer • Intel 5820K • Noctua NH-U12S • Corsair Vengeance 16GB • Gigabyte GTX 970 • be quiet! Dark Power Pro 550w • 2x Intel 520 120GB • 2x 1TB • 1x 3TB
💻 Microsoft Surface Pro (8GB/128GB)
 iPhone 11 64GB 🎧 SONY WH-1000XM3
🎵📲 SONY NW-ZX300 64GB [Region changed & Mr Walkman custom firmware loaded] + 256GB xtra • Audio Technica ATH-M50X

Permalänk
Medlem

Funderar på om https://www.inet.se/produkt/5411905/powercolor-radeon-rx-6800... är ett bra pris just nu eller om man ska vänta vill helst inte betala över 10 lax då jag även vill ha vattenblock till

Permalänk
Medlem
Skrivet av BlackBird:

Beror ju på hur stor del av totala priset för kortet som detta utgör. Ta en gammal 3.5" hårddisk. Varje skiva och läshuvud utgör i just det fallet en väldigt liten del av totala priset. Styrkort med krets, metallchassie och grundläggande R&D står för huvuddelen av priset. Nästan samma sak med SSD. Nu drar jag siffror ur röven, men du kan ju köpa en 250gigs SSD för säg 699 kr. Och en 512, i samma serie, för kanske 899.

I fallet med grafikkort står väl själva GPUn (bara dess existens - oavsett version) för en stor del av priset. Antalet beräkningsenheter är ju inte så mycket en konkret kostnad som marknadspositonering. Det kostar typ lika mycket att göra en 3060-GPU som en 3090. Det är liksom inte större materialkostnad. Är bara tillgången (yeilds) som gör 3090 dyrare. Sen har du all strömförsörjning och fina japanska transistorer. Minneskretsarna utgör troligen en rätt liten del av kostnaden.

Jag tänkte inte på kostnaden för grejerna utan på hur AMD brukar prissätta saker. Om du har ett kort X med prestanda 100% och ett kort Y med prestanda 90%, så brukar kort Y kosta 80% av vad kort X gör. Ibland är det mycket mer - 6800XT är ungefär 90% av en 6900XT, men kostar 65%. Längre ner i segmentet är det närmare linjärt, men jag har aldrig varit med om att man får mer för pengarna när man köper ett snabbare kort så här högt upp i kedjan.

Undrar jag om AMD inte har dragit ner priset på XTX för att hamna under $1000 för att vinna PR-poäng mot Nvidia.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av Lussarn:

Ja, vad jag reagerar över är att inget har förändrats. Fortfarande ungefär samma läge som förra generationen. Fortfarande kass RT. Och det ursäktas med att man ALLTID kommer ligger en gen efter Nvidia, WTF. När jag kollar på intels kort, även om mycket inte verkar fungera så har dom iallafall ungefär samma RT som Nvidia. På första försöket. Vad är det som gör att AMD inte kan klara av detta? Varför får dom alltiod en free pass. Varför får dom aldrig över 15% market share. Istället för alla ursäkter är det dags att sätta ner foten.

Bättre RT kräver väl mer kisel, visst bidrar arkitekturen men det är väl sekundärt (rätta mig gärna). AMD kanske inser att majoriteten skiter i RT och spelar online spel där rå FPS är viktigast. Därtill tycker jag priset reflekterar situationen, AMD vet att 4090 och förmodligen övriga Lovelace-kort spöar RDNA3 i RT och sätter priset därefter. Återigen, bryr man sig inte om RT är AMD ett mycket billigare alternativ just nu.

Visa signatur

f0rest stan | Citera mera | Ryzen 9600X - ASUS Prime 9070 XT

Permalänk
Medlem
Skrivet av Lussarn:

Ja, vad jag reagerar över är att inget har förändrats. Fortfarande ungefär samma läge som förra generationen. Fortfarande kass RT. Och det ursäktas med att man ALLTID kommer ligger en gen efter Nvidia, WTF. När jag kollar på intels kort, även om mycket inte verkar fungera så har dom iallafall ungefär samma RT som Nvidia. På första försöket. Vad är det som gör att AMD inte kan klara av detta? Varför får dom alltiod en free pass. Varför får dom aldrig över 15% market share. Istället för alla ursäkter är det dags att sätta ner foten.

Vi får nog vänta lite och se på oberoende tester.
Mitt i allt kanske AMD har fixat en hejdundrande uppskalare utan en massa ghosting och artefakter så man kan använda den tillsammans med R/T.