Anmäl dig till Roborock Challenge!

AMD Radeon RX 7600 fångad på bild – kan kosta 3 200 kronor

Permalänk
Medlem
Skrivet av Herr Kantarell:

Instämmer med er också. RX 6600 XT var väl redan lagom i prestanda för 1080p om man bortser från RT prestanda.

Det är lustigt att de släpper detta kort innan 7800 och 7700 varianterna (de jag tror de flesta skulle vara intresserade av)

Alltså marknaden för 7800 och 7700 är egentligen liten . Gamla siffror visar det ganska tydligt även om siffrorna under crypto boomen då man tjänade pengar på korten är ett undantag . Jag tror rent subjektivt att vi är tillbaka på gamla siffror där 70- 80 % köper kort som kostar under ca 400 dollar . Sverige är naturligtvis på grund av höga löner globalt lite över genomsnittet men inte så mycket .

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 11 ASUS PG279Q skärm

Permalänk
Medlem
Skrivet av Lussarn:

Vad betyder "kräver" för dig? För mig veterligen kräver inget spel 8GB. Och absolut inte Far Cry 6, inte ens med raytracing.

Se denna tråd och film som finns där. IMO tror jag spelen skulle kunna göras så de klarar 1080p med 8GB utan allt för stora uppoffringar.

Sedan kanske man alltid kan dra ner på inställningar och så.

https://www.neogaf.com/threads/8-gb-of-vram-is-not-enough-eve...

Skrivet av SuperSverker:

Har du någon källa på det där?

Det enda jag tar ifrån artikeln är:

1. Det är inte ett krav, utan om man vill så kan man göra det.
2. Det är väl snarare Nvidia som skitit i det blå skåpet genom att leverera ett 3060 med mer minne än 3060Ti?
Jag fattar inte riktigt hur det ligger i AMDs händer att konsumenter är lättlurade?
3. Hur tvingar AMD en utvecklare att medvetet gå texturer att kräva mer minne än vad som behövs...?

Källan är ju att AMD sponsrat spelet. Du ser en fet AMD logga när det startas.

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem
Skrivet av Ortovox:

Tycker det är intressant att all specen är exakt 1/3 av en 7900 XTX, kan man säga redan nu att den kommer prestera som 1/3 7900 XTX?

Troligtvis lite bättre än så, spelprestanda brukar inte skala perfekt med antalet kärnor. Hur högt klockat kortet är spelar också roll. Gissningsvis hamnar det närmare 1/2,5 av ett 7900 XTX.

Skrivet av Ortovox:

Och ni som har koll är detta ett perfekt exempel av utnyttjande av chiplet designen där man mer eller mindre tagit 1/3 MCD enheter av exakt samma som hittas i 7900XTX och slängt ihop och så har man ett 7600?

7900 XTX har en GDC för själva GPUn och sex MCD:er för cacheminnet. Så 7600 har väl troligtvis bara två MCD:er, men GDC:n kommer vara en mindre krets än 7900 XT/XTX.

Permalänk
Medlem
Skrivet av Herr Kantarell:

Se denna tråd och film som finns där. IMO tror jag spelen skulle kunna göras så de klarar 1080p med 8GB utan allt för stora uppoffringar.

Sedan kanske man alltid kan dra ner på inställningar och så.

https://www.neogaf.com/threads/8-gb-of-vram-is-not-enough-eve...

Källan är ju att AMD sponsrat spelet. Du ser en fet AMD logga när det startas.

Alltså, jag kan tänka mig att eagle-eye Steve på Hardware Unboxed kan se skillnad på ultra och high texturer i 1080p, och är du som honom är det ett problem. Han nämner ofta i sina videos hur det är en av de största visuella förändringar för honom, just texturerna, när han testar 1080p. Och kan han se skillnaden, bra för honom. Köp ett kort med mer minne.

Personligen ser jag inte skillnaden och kan ställa ner texturerna.

Visa signatur

- 5090

Permalänk
Medlem
Skrivet av Herr Kantarell:

Se denna tråd och film som finns där. IMO tror jag spelen skulle kunna göras så de klarar 1080p med 8GB utan allt för stora uppoffringar.

Sedan kanske man alltid kan dra ner på inställningar och så.

https://www.neogaf.com/threads/8-gb-of-vram-is-not-enough-eve...

Källan är ju att AMD sponsrat spelet. Du ser en fet AMD logga när det startas.

Jo men det är att 8 GB är för lite för att spela på höga inställningar . Misstolka mig inte köper man ett kort som 70 klassen skall man kunna spela på höga inställningar absolut och det är rent frustrerande att vissa tar Nvidia i extremt försvar för just detta . Det är dock så att 4GB korten är helt ute det hjälper inte ens och ställa ner allt till absolut minimum . och lägger du till raytracing så kräver det mycket mer än så . Men du kan starta ett AAA spel på lägsta med alla moderna 8 GB kort ( inte testat 390 x från 2015 nyligen så där vet jag inte )

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 11 ASUS PG279Q skärm

Permalänk
Medlem
Skrivet av Herr Kantarell:

Se denna tråd och film som finns där. IMO tror jag spelen skulle kunna göras så de klarar 1080p med 8GB utan allt för stora uppoffringar.

Sedan kanske man alltid kan dra ner på inställningar och så.

https://www.neogaf.com/threads/8-gb-of-vram-is-not-enough-eve...

Källan är ju att AMD sponsrat spelet. Du ser en fet AMD logga när det startas.

Det är ju inte riktigt så enkelt - Oavsett om det gäller Nvidia eller AMD.

Skrivet av PC Gamer:

One thing it means is money, and that can come in a variety of forms. Advertising and marketing dollars are a common approach, and there may be other related deals like giving out 'free' copies of a game to people who buy a new graphics card. Providing hardware and software to game developers is another option—what better way to ensure a new game runs properly on a specific set of hardware than to provide that hardware to the developers? But perhaps more important than the hardware is expertise in optimizing a game for that hardware, in the form of software developer expertise.

All three of the major CPU/GPU companies have in the past provided software engineering resources to game developers, and I expect that to continue. The forms this takes can vary quite a bit, however, and when we speak of a game being "built for AMD" or "built for Nvidia," usually it's the engineering resources that end up being the most impactful.
Källhänvisning

Det handlar främst om att man erbjuder expertis så att spelet flyter på bäst på sin egna hårdvara, dvs genom förbättrade optimeringar eller annat (Eller bundlar sina grafikkort med spel som man hjälp till att optimera). Jag har väldigt väldigt väldigt svårt att tro att AMD kan gå in och kräva att Ubisoft släpper ett valfritt texturpack med den enda anledningen att det kan köras med AMDs grafikkort med generellt mer minne.
Absolut att man kan ha lagt fram idéen, men knappast att man tvingar Ubisoft till något.

Visa signatur

Krusidullen är stulen

Permalänk
Inaktiv
Skrivet av perost:

7900 XTX har en GDC för själva GPUn och sex MCD:er för cacheminnet. Så 7600 har väl troligtvis bara två MCD:er, men GDC:n kommer vara en mindre krets än 7900 XT/XTX.

Är inte ryktet på stan att Navi 33 är en monolitisk krets tillverkad på 6nm?

edit.
Efter lite googlande om Navi 33 måste jag ändå skratta åt att MILD har en "läcka" på att navi 33 kommer vara upp mot 400mm2 och erbjuda RX6900XT prestanda... En trasig klocka har oftare rätt än den mannen.

Permalänk
Medlem
Skrivet av perost:

Troligtvis lite bättre än så, spelprestanda brukar inte skala perfekt med antalet kärnor. Hur högt klockat kortet är spelar också roll. Gissningsvis hamnar det närmare 1/2,5 av ett 7900 XTX.
7900 XTX har en GDC för själva GPUn och sex MCD:er för cacheminnet. Så 7600 har väl troligtvis bara två MCD:er, men GDC:n kommer vara en mindre krets än 7900 XT/XTX.

Fel det är en krets på helt annan nood där man återvinner 6600 xt och gör den billigare att tillverka .

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 11 ASUS PG279Q skärm

Permalänk
Medlem

"...det blåser upp till storm"
Det är ju bra för el-priserna desto mer det blåser. Och i detta fallet grafikkortsmarknaden.
Vad vet vi om prestanda? Är det en rak ersättare till 6600 eller kommer dom bumpa upp dessa en tier? För i fallet om det presterar som förgående generation *600-serie så är ju gapet mellan 7600 och 7900 giGanTiskT!
Det hade ju varit ytterst trevligt om prestandan låg kring 5700/6700xt för det priset.

Permalänk
Medlem
Skrivet av anon75480:

Är inte ryktet på stan att Navi 33 är en monolitisk krets tillverkad på 6nm?

edit.
Efter lite googlande om Navi 33 måste jag ändå skratta åt att MILD har en "läcka" på att navi 33 kommer vara upp mot 400mm2 och erbjuda RX6900XT prestanda... En trasig klocka har oftare rätt än den mannen.

Jo, det är visst Navi 32 som kommer använda chiplets, troligtvis för 7600 XT. Men poängen var mest att AMD fortfarande använder en monolitisk GPU, det är bara cacheminnet som ligger på separata chiplets. Så de kan inte bara använda färre chiplets till de mindre kretsarna som de gör med CPUerna.

Permalänk
Medlem
Skrivet av Fenrisulvfan:

11% bättre än 6650XT har jag läst, så runt 6700 (utan XT) prestanda, men med bara 8GB minne, märkligt att PCIE info inte står på lådan som det brukar göra, så jag gissar att bilden är fejk, men om inte så är det troligen något man skäms för, typ PCIE 4.0 x4.
$249 känns ändå rimligt, även om ingen borde rusa iväg och köpa det för det priset.

Det är PCIe 4.0 x8, precis som Navi 23/6600-serien.

Skrivet av Ortovox:

Tycker det är intressant att all specen är exakt 1/3 av en 7900 XTX, kan man säga redan nu att den kommer prestera som 1/3 7900 XTX? Och ni som har koll är detta ett perfekt exempel av utnyttjande av chiplet designen där man mer eller mindre tagit 1/3 MCD enheter av exakt samma som hittas i 7900XTX och slängt ihop och så har man ett 7600?

Det är inte alls samma process. Det är ett monolitiskt chip på 6nm, inte flera chiplets där GCDn är på 5nm.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av ottoblom:

Jo men det är att 8 GB är för lite för att spela på höga inställningar . Misstolka mig inte köper man ett kort som 70 klassen skall man kunna spela på höga inställningar absolut och det är rent frustrerande att vissa tar Nvidia i extremt försvar för just detta . Det är dock så att 4GB korten är helt ute det hjälper inte ens och ställa ner allt till absolut minimum . och lägger du till raytracing så kräver det mycket mer än så . Men du kan starta ett AAA spel på lägsta med alla moderna 8 GB kort ( inte testat 390 x från 2015 nyligen så där vet jag inte )

Poängen är att det är nya spel och där VRAM användandet börjat överstiga 8GB även i 1080p. Tror även Microsoft flight simulator är ett sånt spel.

Skrivet av SuperSverker:

Det är ju inte riktigt så enkelt - Oavsett om det gäller Nvidia eller AMD.
Det handlar främst om att man erbjuder expertis så att spelet flyter på bäst på sin egna hårdvara, dvs genom förbättrade optimeringar eller annat (Eller bundlar sina grafikkort med spel som man hjälp till att optimera). Jag har väldigt väldigt väldigt svårt att tro att AMD kan gå in och kräva att Ubisoft släpper ett valfritt texturpack med den enda anledningen att det kan köras med AMDs grafikkort med generellt mer minne.
Absolut att man kan ha lagt fram idéen, men knappast att man tvingar Ubisoft till något.

Har du missat nVidia GameWorks och hur t.ex. Farcry 5 saknade olika grafik egenskaper hos AMDs kort bara för att de var låsta till nVidias GameWorks? Det har pågått sånt här fulspel i många år.
Battlefield 3, sponsrat av nVidia = presterade bäst på nVidia
Battlefield 4, sponsrat av AMD = presterade bäst på AMD tror det var 290X
Etc.

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem
Skrivet av Rupenbritz:

Fast priset i Sverige var ju 3000 inte dubbla.
Man måste ju gå på faktiskta priser i sverige vs faktiska priser i sverige.
Inte MSRP vs faktiska priser

Beror ju på om du vill kunna jämföra dem eller inte; dollarkursen påverkar slutpriset då importpriset sätts mot dollar och inflationen påverkas för att det är något som faktiskt finns.
Alltså måste detta tas med när man jämför priserna då mot nu.
som exempel, dagens dollarkurs (10.2kr) istället för den som gällde när GTX 480 släpptes (7.25) är 40% högre, det innebär att ett pris på 2875kr med de kurserna hade varit 4045kr om det släppts med dagens dollarkurs.
Justerar du sedan 4045kr för inflationen mellan 2010 och 2023 så motsvarar det 5387kr

Visa signatur

CPU: R7 9800X3D | GPU: Asrock 7900XTX Taichi OC | MB: Asus B650E-I| RAM: 2x32 Kingston Fury @6000MHz CL30|Cooling:Noctua NH-D15 G2|PSU: Phanteks AMP GH Platinum 1000W|SSD: Kingston Fury Renegade 2TB + Corsair MP510 4TB |CASE:Streacom DA6 XL Chrome

Permalänk
Medlem
Skrivet av sweisdapro:

Beror ju på om du vill kunna jämföra dem eller inte; dollarkursen påverkar slutpriset då importpriset sätts mot dollar och inflationen påverkas för att det är något som faktiskt finns.
Alltså måste detta tas med när man jämför priserna då mot nu.
som exempel, dagens dollarkurs (10.2kr) istället för den som gällde när GTX 480 släpptes (7.25) är 40% högre, det innebär att ett pris på 2875kr med de kurserna hade varit 4045kr om det släppts med dagens dollarkurs.
Justerar du sedan 4045kr för inflationen mellan 2010 och 2023 så motsvarar det 5387kr

Fast kursen går ju hand i hand med inflation så du kan ju inte räkna båda ?

Permalänk
Skrivet av Herr Kantarell:

Instämmer med er också. RX 6600 XT var väl redan lagom i prestanda för 1080p om man bortser från RT prestanda.

Det är lustigt att de släpper detta kort innan 7800 och 7700 varianterna (de jag tror de flesta skulle vara intresserade av)

Jag tror AMD bestämt sig för att släppa RX 7850 XT och RX 7750 XT istället. RDNA3 fixat.

Permalänk
Medlem
Skrivet av Rupenbritz:

Fast kursen går ju hand i hand med inflation så du kan ju inte räkna båda ?

Nu är jag inte med på vad du menar, att kronan är låg är inte orsakat av inflationen, om något har kronan lägre inflation än dollarn mellan 2010-2023 (kr 33.4% $ 39%)
Alltså borde (räknat på ren inflation) grafikkort varit billigare idag än 2010 då dollarn tappat mer i värde än kronan.
Inflationen är ju bara ett mått på den interna värdeminskningen på en valuta (mot sig själv) över tid, inget annat.

Fast, egentligen är det inte kronans inflation som är relevant i våra räkneexempel, utan dollarns, då den påverkar MSRP som sedan påverkar vårat slutpris baserat på kursen
1. MSRP GTX480 (499)
2. Justerar för inflation (~40% -> 698,6$)
3. Översätter till SEK (7126kr)
4. Lägger på moms (8907)

Visa signatur

CPU: R7 9800X3D | GPU: Asrock 7900XTX Taichi OC | MB: Asus B650E-I| RAM: 2x32 Kingston Fury @6000MHz CL30|Cooling:Noctua NH-D15 G2|PSU: Phanteks AMP GH Platinum 1000W|SSD: Kingston Fury Renegade 2TB + Corsair MP510 4TB |CASE:Streacom DA6 XL Chrome

Permalänk
Avstängd
Skrivet av Saagaa:

Upp till typ 3060 TI prestanda känns väl 8GB något rimligt och känns som detta kort knappt kommer nå denna nivå.

Minnet slår väl i taket innan prestandann rent texturmässigt snart.

Permalänk
Medlem

Tänkte direkt på Maxell kassettband när jag såg bilden på grafikkortskartongen..

Snyggt och spännande färgtema med guld, rött, svart och vitt!

Permalänk
Medlem

För er som oroar er så över 8GB och inte kunna köra ultra. Här har ni en bild från Last of us part 1. Halva denna bilden har high textures och halva har ultra textures. Cutoff point är mitt i stolpen, genom texten, vertikal. Den är tagen i 4K TAA, croppad för att få ner filstorlek. Man skulle nog kanske, kanske kunna gissa vilken halva som är high och vilken halva som är ultra.

Tänk er nu att göra detta i 1080p istället, det finns inte en chans för mig iallafall. Jag började med 1080p när jag gjorde detta, och det var närmast pixelperfekt mellan high/ultra, medium såg jag skillnad. Jag vill inte säga att andra inte kan se skillnad, var man har sina egna ögon.

https://postimg.cc/mtDtH9Yw

Visa signatur

- 5090

Permalänk
Medlem
Skrivet av Herr Kantarell:

Poängen är att det är nya spel och där VRAM användandet börjat överstiga 8GB även i 1080p. Tror även Microsoft flight simulator är ett sånt spel.

Har du missat nVidia GameWorks och hur t.ex. Farcry 5 saknade olika grafik egenskaper hos AMDs kort bara för att de var låsta till nVidias GameWorks? Det har pågått sånt här fulspel i många år.
Battlefield 3, sponsrat av nVidia = presterade bäst på nVidia
Battlefield 4, sponsrat av AMD = presterade bäst på AMD tror det var 290X
Etc.

Battlefield har väl alltid varit en Nvidia titel såvitt jag vet?

Hur har det med något att göra? Nvidia has massvis med propretär mjukvara (ex. DLSS eller PhysX om man är gammal) så det är självklart att det resulterar i skillnader när Nvidia är med och utvecklar ett spel

Edit*
Vi ska nu särskilja på sånt som partnern vill ha (DLSS/Hairworks etc) och ditt orginella påstående att AMD tvingar utvecklare att släppa ett texturpack för att de levererar kretsar med mer minne än Nvidia

Visa signatur

Krusidullen är stulen

Permalänk
Medlem
Skrivet av SuperSverker:

Battlefield har väl alltid varit en Nvidia titel såvitt jag vet?

Hur har det med något att göra? Nvidia has massvis med propretär mjukvara (ex. DLSS eller PhysX om man är gammal) så det är självklart att det resulterar i skillnader när Nvidia är med och utvecklar ett spel

Edit*
Vi ska nu särskilja på sånt som partnern vill ha (DLSS/Hairworks etc) och ditt orginella påstående att AMD tvingar utvecklare att släppa ett texturpack för att de levererar kretsar med mer minne än Nvidia

Nej googla och kolla om du inte tror mig.

Denna är också läsvärd:
https://www.pcgamer.com/what-does-it-mean-when-a-game-has-amd...

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem
Skrivet av Herr Kantarell:

Det är lustigt att de släpper detta kort innan 7800 och 7700 varianterna (de jag tror de flesta skulle vara intresserade av)

Navi 33 är ett chip designat för bärbara. Det släpps nu för att AMD har kapacitet att leverera det när OEMerna är ganska nöjda. De fick sina chip redan i januari.

Navi 32 är eventuellt försenat för att de ville fixa en bugg som upptäcktes i Navi 31, eller så räknar de bara kallt med att de kan sälja gamla Navi 21 (6950XT och 6800XT) på den platsen så länge.

Skrivet av anon75480:

Efter lite googlande om Navi 33 måste jag ändå skratta åt att MILD har en "läcka" på att navi 33 kommer vara upp mot 400mm2 och erbjuda RX6900XT prestanda... En trasig klocka har oftare rätt än den mannen.

Det slår mig nu när jag läser det att MLID kanske bara fick namnet fel. Navi 32 kommer att bli ungefär 400mm2 om man lägger ihop alla chippen och kan mycket väl ha prestanda nånstans däromkring. Men visst var det absurt att tro att Navi 33 skulle ha den prestandan, så jobbar inte AMD. De verkar sikta på 40-50% mer prestanda på en viss nivå för varje generation.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av magma86:

Är det inte för att de måste tömma lagren av rx 6800, rx 6800 xt, rx 6900 xt och rx 6950 xt först?
Rx 6950 xt har funnits hur länge som helst till lägre pris i komplett men få verkar köpa det?
För varje vecka som går pressas priserna ner också.

Det skulle inte förvåna mig om 6950 xt landar under 6000 till augusti eller tidigare.

Haha ja 50+ i lager hur länge som helst!

Sedan undrar jag om det är en dålig modell eller något för folk här på forumet länkar till Inet som har dyrare 6950XT kort när det kommer på tal.

Visa signatur

1. Asrock B650 PG Lightning | 7600X | 32GB Kingston Fury 6000MHz | GTX 1070 |

Permalänk
Medlem
Skrivet av Herr Kantarell:

Nej googla och kolla om du inte tror mig.

Denna är också läsvärd:
https://www.pcgamer.com/what-does-it-mean-when-a-game-has-amd...

Det är samma artikel som jag länkat ovan, som säger precis det jag säger till dig.

Verkar vara svårt att hitta specifika listor men att AMD assisterat Dice tidigare med ex. Mantle är ju känt.
Om du har källor får du gärna länka.

Visa signatur

Krusidullen är stulen

Permalänk
Medlem

Åhh...

I bildens bakgrund så ser man ett lager av 12-år gamla grafikkort, AMD FirePro 2270 som lanserades februari 2011.

Vet inte hur man skall se nyheten som redan sprungit ett par varv runt Tellus, mer än som en tung saltsäck.

Priset tror jag inte mycket på, men oavsett gott om nu mindre kort släps ur senaste generationen.

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
Medlem
Skrivet av ottoblom:

Fel det är en krets på helt annan nood där man återvinner 6600 xt och gör den billigare att tillverka .

Oki så då kommer 7600 ha sämre RT prestanda (som 6000 serien) rent procentuellt jämfört med 7900 korten som fick ett lyft om jag minns rätt.
Personligen tycker jag AMD gör rätt, för alla kort under 7900 korten så kan de lika bra återanvända 6000 serien och bara finslipa dem och sikta på billigare tillverkning med återanvändning av kylare osv i hopp om att vi får billigare kort. Jag bryr mig inte om RT och DLSS osv om det är på bekostnad av råprestanda och pris. Det är något som är ok om det komma med gratis.
Nvidia skulle gjort samma för alla kort under 4070, bara kopierat 3080 och förfinat / gjort tillverkningen billigare.

Permalänk

Rent personligt filosofiskt är det lite trist att AMD och Nvidia "måste" släppa grafikkort med vissa intervall. Om det ändå inte blir något spännande eller prisvärt så hade de lika gärna kunnat gå i ide i tre år och sen ta oss med storm.

Visa signatur

Dator 1: MSI Tomahawk Max, Ryzen 3700X, Sapphire Pulse RX 5700 XT, Ballistix Elite 4x8 GB 3200 MHz cl15, Corsair Force MP510 960 GB, Scythe Kaze Master Pro, Plusdeck 2c Dator 2: Lenovo ThinkPad T480s

Permalänk
Medlem
Skrivet av SuperSverker:

Det räcker ju att bara kolla på MSRP (Inflation)

Radeon 5970 med dubbla Hemlock låg ju på $699 ($967)
Radeon 5870 hade MSRP på $379 ($524)
Radeon 5850 hade MSRP på $260 ($359)
Radeon 5770 hade MSRP på $160 ($221)

Jämför vi med idag...
7900 XTX = $999
7900 XT = $899
7800 XT = $599 (Rykte)
..
7600 XT = $249

Så prismässigt ligger ju 7600XT lagom, problemet ligger snarare över medelklassen.
(Ja, det finns fler faktorer som påverkar priset men det ger en fingervisning hur satans dyr övre medelklassen är nu för tiden.

Edit*

Jag hade hellre sett att man slutade lansera kort så otroligt långt isär, när medelklassen kommer börjar man ju redan titta på nästa generation..

Tror det täckts till leda här på forumet, men det som tydligast hänt är att prosumerklassen med kort, det som var bland annat Titan, flyttats in i konsumentklassen som ett högre steg. Hade vi varit kvar i samma upplägg som vid GTX480 som jämfördes med innan så hade 7800XT varit toppkortet. Precis som tidigare får man punga ut rejält om man vill ha det absolut bästa som går att få, men är du nöjd med ett kort motsvarande 7800XT så får du likväl mer prestanda per krona nu än för ett par år sedan och detta är trots kronans drastiska fall som gör alla importvaror, typ GPUer väldigt mycket dyrare.

Permalänk
Medlem
Skrivet av Ortovox:

Oki så då kommer 7600 ha sämre RT prestanda (som 6000 serien) rent procentuellt jämfört med 7900 korten som fick ett lyft om jag minns rätt.
Personligen tycker jag AMD gör rätt, för alla kort under 7900 korten så kan de lika bra återanvända 6000 serien och bara finslipa dem och sikta på billigare tillverkning med återanvändning av kylare osv i hopp om att vi får billigare kort. Jag bryr mig inte om RT och DLSS osv om det är på bekostnad av råprestanda och pris. Det är något som är ok om det komma med gratis.
Nvidia skulle gjort samma för alla kort under 4070, bara kopierat 3080 och förfinat / gjort tillverkningen billigare.

Nu har jag inte sett någon utförlig analys av Navi 33, men av allt att döma så är det de uppdaterade shaderna (med dual issue) från RDNA3. Det är väl mer oklart om det också är de större L1$/L2$ från Navi 31 - mer cache tenderar man ju att peta in vid en krympning - men jag skulle inte hålla det för otroligt. Enligt Chips & Cheese som har grottat ner sig i mikro-benchmarks så är det cachen som gör skillnad vad gäller RT.

Sen skall sägas att Navi 22/6700XT är väldigt lik Navi 10/5700XT. Bägge är 40CU, så 6000-serien går 32-40-80 om man räknar i CU. Det är ett rätt udda spann, eftersom AMD brukar köra med chip i förhållande 1:2:3 ungefär. De ”borde” väl ha haft nåt i stil med 24:48:72 (minns att 6800XT som skulle varit toppkortet hade 72CU) den gången och 32:64:96 nu. Det verkar som om de sparade in två nya floorplans genom att återanvända Navi 10 och sedan köra Navi 33 ett steg för tidigt, så att säga.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av Bengt-Arne:

Åhh...

I bildens bakgrund så ser man ett lager av 12-år gamla grafikkort, AMD FirePro 2270 som lanserades februari 2011.

Vet inte hur man skall se nyheten som redan sprungit ett par varv runt Tellus, mer än som en tung saltsäck.

Priset tror jag inte mycket på, men oavsett gott om nu mindre kort släps ur senaste generationen.

Det kanske är AMD Radeon HD7600? Den generationen - mer specifikt 7670 - är en rebrand av 6670, som lanserades… 2011.

Visa signatur

5900X | 6700XT