AMD presentererar RDNA 2 – Radeon RX 6000 och "Big Navi"

Permalänk
Medlem
Skrivet av Dinoman:

Eftersom detta är första generationen för AMD så hoppas jag på att det fortfarande finns en del att putsa på drivrutinerna sen är ju frågan om Nvidias och AMD's RT-cores är likställda då AMD har fler och snabbare kärnor så måste ju Nvidias helt enkelt vara effektivare.

Stämmer ~30% så blir det snarare en renovering än en putsning för AMD. Och tar det tid att nå dit så blir det ännu svårare att motivera AMD denna generationen (för just raytracing ivaf). Hade hoppats på något i stil med 10% men vi får se i testerna.

Permalänk
Medlem
Skrivet av marcusOCZ:

Är väl $699 fortfarande for 3080?

Nej det är det inte. https://www.sweclockers.com/artikel/30431-kronika-vad-kostar-...

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk
Skrivet av Daemon85:

Hänvisar till folk på Youtube som sett oberoende resultat.
Vågar garantera att amd i deras egna tester använder sin senaste 5000 serie cpu med sin egna gpu och sen Intel med nvidias gpu. Amd har gjort denna taktik förut med olika system för att få sina egna produkter att glänsa.

Enligt Gamers Nexus har AMD verifierat att allt är testat på identiska plattformar, dvs den enda skillnaden har varit GPU. Det borde man kunna läsa sig till också om man orkar gå igenom alla fotnoter i presentationsvideon.

Visa signatur

Asrock Z490M-ITX/ac | i5 10600 | RTX 2060 FE | 16GB DDR4-3200 | Corsair SF450 | A-DATA SP900 128GB | Samsung 970 EVO 500GB | Noctua NH-L9i | Kolink Rocket

Permalänk
Medlem

$699 på sidan till Nvidia i alla fall.

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Medlem

Wow. Man kunde ju försvara 3-5000 spänn för ett riktigt bra grafikkort back in the days, men börjar bli svårt att knåpa ihop ett bra bygge när korten har nått ganska höga prisnivåer (tycker jag...). Blir nog en övergång till konsol för mig, och behålla den gamla trotjänaren av PC modell 2016 till eventuella RTS och 4X-spel i framtiden.

Visa signatur

Speldator: Intel i5-7600K @4,95Ghz - BeQuiet PureRock - MSI Z170A SLI Plus - Corsair RM550x - Asus RTX 2070 ROG Strix Advanced 8GB - MSI Optix MAG271CQR 27” 1440p 144hz - 8Gb Corsair Vengeance 2400Mhz DDR4 - Samsung 850 Evo + WD Black M.2 SSD - NZXT S340

Jobbdator: HP Elitebook X360 2018 - 16Gb DDR4 - 256Gb PCI-e SSD - Intel i7-8650U

Konsol: Xbox Series X

Permalänk
Medlem
Skrivet av Daemon85:

Hänvisar till folk på Youtube som sett oberoende resultat.
Vågar garantera att amd i deras egna tester använder sin senaste 5000 serie cpu med sin egna gpu och sen Intel med nvidias gpu. Amd har gjort denna taktik förut med olika system för att få sina egna produkter att glänsa.

Alla tester är gjorda på samma system som kör en 5900x enligt deras "disclaimer & endnotes" ifrån presentationen.

Permalänk
Medlem

Om nu AMD slår både Nvidia och Intel så blir det en riktig milstolpe!
Hoppas på riktiga pris/prestanda - fighter framöver!

Visa signatur

Ny dator: Acer Predator Orion 5000 (RTX 3080)
[ I7 3770K @ 4.6Ghz | Asus 980 Ti 6GB | 16GB | Asus P8Z77-V PRO | Samsung 830 128GB | Corsair H100 | Cooler Master HAF X | Corsair AX 850W | Samsung DVD±RW ] [ Sony AF9 65" | Sony WF-1000XM3 | HTC Vive | Huawei P40 Pro | PS4 Pro | PS3 Slim | PS2 chippad | PS Vita | DS Lite | SNES Mini ]

Permalänk
Medlem
Skrivet av marcusOCZ:

$699 på sidan till Nvidia i alla fall.

Som inte ens säljs i Sverige. Papperslansering, riktiga priserna är högre om du vill ha en fysisk kort hemma. Du har att göra med småkriminella här som vill lura dig på alla sätt.

Visa signatur

Moderkort: Gigabyte X570 AORUS MASTER rev 1.2 Processor: AMD Ryzen 7 5800X3D Kylning: Corsair be quiet! Dark Rock Pro 4 Minne: 32 GB Crucial Ballistix 3600 MHz Grafikkort: Sapphire NITRO+ Radeon RX 7900 XTX Hårddiskar: Corsair Force MP600 1TB M.2, Seagate BarraCuda 4TB 5400rpm Nätagg: Corsair RM850x V2 Chassi: Fractal Design Define 7 Compact Skärm: LG C3 77 tums TV

Permalänk
Viking
Skrivet av marcusOCZ:

$699 på sidan till Nvidia i alla fall.

Men där står det helt stilla. Det börjar likna 2080 Ti som lanserades för $999 men som sedan såldes för minst $1200.

Visa signatur

RTX 3080 Gaming X Trio | Ryzen 7 5800X | TridentZ Neo 32GB @3600MHz CL16 | Asus X470-F ROG Strix | Lian Li PC-O11 Dynamic Svart | NZXT Kraken Z73 | 9x Phanteks T30 | LG OLED 27GS95QE 240Hz

Permalänk
Medlem

Tror tillgången på RDNA2-korten kommer vara typ samma som för RTX 3000-serien men med betydligt färre intressenter så förmodligen kommer det vara lättare att få tag i ett sådant på släppdagen. AMD kommer förmodligen inte heller släppa några egna "founders edition" på sin hemsida så det innebär ju fler kort till partnertillverkare->fler kort till återförsäljare.

Permalänk

när släpps prestanda tester?

Visa signatur

Moderkort:asus prime x570 pro cpu: Amd ryzen 5600x cpucooler: corsair h70 Ramminne: 64 gb corsair vengance Gpu: AMD: rx 6800 16 gb psu: corsair RM1000i

Permalänk
Medlem

Skall bli kul att se riktiga oberoende tester Det optimala vore att korten hamnar väldigt lika så priset blir avgörande = billigare priser för att locka kunder.

Visa signatur

Chassie Louqe Ghost S1 MKIII Limestone, Moderkort Gigabyte B550I AORUS PRO AX, RAM minnen G.SKill Trident Z Neo RGB 32GB, CPU AMD Ryzen 7 5800X, KylareNoctua Ghost S1 Edition, GPU Powercolor Radeon RX 6800 16GB, Systemdisk Samsung 970 EVO Plus series 500GB M.2, Sel/programdisk SSD 2x Samsung 850 EVO 120/500 GB, PSU Corsair sf750w, Skärm Samsung c32hg70 144hz,Mus Logitech g603 wireless gamingmouse, Tangentbord Logitech g613 wireless gaming keyboard

Permalänk
Avstängd
Skrivet av Daemon85:

Hänvisar till folk på Youtube som sett oberoende resultat.
Vågar garantera att amd i deras egna tester använder sin senaste 5000 serie cpu med sin egna gpu och sen Intel med nvidias gpu. Amd har gjort denna taktik förut med olika system för att få sina egna produkter att glänsa.

så det enda det säger mig är att allt förutom ryzen 5000 serien är en bottleneck för radeon 6000.

Du får gärna länka till dessa youtubers.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Datavetare
Skrivet av Dinoman:

Eftersom detta är första generationen för AMD så hoppas jag på att det fortfarande finns en del att putsa på drivrutinerna sen är ju frågan om Nvidias och AMD's RT-cores är likställda då AMD har fler och snabbare kärnor så måste ju Nvidias helt enkelt vara effektivare.

Är nog helt meningslöst att försöka jämföra antalet "RT-kärnor", är allt för många tekniska skillnader i implementation för att de ska komma något vettigt ur det.

Är inte ens helt enkelt att jämföra antalet RT-kärnor mellan Turing och Ampere då de i Turing är en specialfunktion till CUDA-kärnorna och därmed körs synkront med dessa medan RT-kärnorna fått tillräckligt med kontrollogik i Ampere för att kunna utföra sin uppgift asynkront, d.v.s. CUDA-kärnorna kan köra andra saker parallellt med RT-kärnorna.

I Nvidias fall handlar det i båda fallen om separat kisel medan RDNA2 integrerat funktionen i texturenheterna. I någon mening blir RDNA2 då lite mer likt Turing, funktionen är synkron med de "vanliga" GPU-kärnorna.

Fast vi saknar helt kapaciteten hos varje "RT-kärna". Om jag skulle implementera "axis-aligned bounding box (AABB) ray-intersection" på en CPU skulle strategin vara att hantera en stråle per SIMD-lane, vilket på en CPU med AVX-stöd då betyder att man beräknar 8 strålar parallellt per CPU-kärna (AVX är 256 bitar, om koordinaterna är FP32 blir det 8 st som kan hantera parallellt).

Beräkningen kräver i optimala fall 6 st FMA (fused-multiply add) samt ett par jämförelser. I praktiken kan 2 FMA starta per cykel hos dagens Intel/AMD CPUer, vi har ingen aning hur motsvarande kapacitet ser ut för GPUerna.

Givet hur simpel AABB ray-intersection är tror jag inte man ska räkna med några större optimeringar i drivrutiner. Optimeringspotentialen ligger i hur effektivt spelmotorerna kan få ned antalet beräkningar som man behöver göra, något som lär påverka prestanda rätt likvärdigt oavsett GPU. Möjligen kan Ampere skilja sig lite då den kan köra RT parallellt med andra beräkningar, det kan slå åt båda hållen.

Är själv övertygad om att det finns massor med optimeringspotential runt ray-tracing i spel. Det vi sett så här långt är i praktiken quick-hacks för att få in DXR i existerande spelmotorer. När spel byggda från grunden för DX12/DXR hittar ut lär vi få se större grafisk utväxling på samma beräkningsbudget. Allt detta tar tid, spel är idag rätt gigantiska kodbaser där ledtiden för utveckling räknas i flertalet år. De AAA-titlar vi ser nu är fortfarande sådana som startades innan Turing lanserades!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Skrivet av Triton242:

Skönt att man är låst med en G-Sync skräm.
Då behöver jag inte fundera på att avbeställa 3080 då man inte vill köpa en ny skräm också.
Diktatur kanske inte är så dåligt ändå.

Har också G-sync och ett 1080Ti, jag använder i princip alldrig G-sync och framförallt i fps spel iom att det ger input lag. Ska jag vara ärlig ser jag bara skillnad med G sync på om spelet ligger under 75-80 fps ( syns bara vid väldigt få tillfällen ) eller dom få spel som hoppar mkt upp och ner i fps. Jag valde min skärm efter upplösning, en väldigt bra och prisvärd (5000kr) 1440p skärm som sen råkade ha G- sync.
Spelade nyligen igenom rdr2 i låsta 60fps och ingen G-sync och saknade inte alls funktionen, ingen synlig screan tearing vad jag kunde se.
Att välja GPU efter G- sync känns inte relevant alls för mig.

Visa signatur

Färdiga projekt The legacy of king Khufu.
https://www.sweclockers.com/galleri/2346-the-legacy-of-king-k...
Noctua ramkylare i aluminium: https://youtu.be/JmzCWlq3FKA
Chassie kylning: https://youtu.be/muxjWN7avwA

Permalänk
Medlem

Så en papperslansering ändå...

Permalänk

L3 cache på 128 MB

Undrar just hur länge det tar för Nvidia att ta efter detta?
Det är ju knappast något patent.

Permalänk
Viking
Skrivet av leafbranch:

Så en papperslansering ändå...

Nej

Visa signatur

RTX 3080 Gaming X Trio | Ryzen 7 5800X | TridentZ Neo 32GB @3600MHz CL16 | Asus X470-F ROG Strix | Lian Li PC-O11 Dynamic Svart | NZXT Kraken Z73 | 9x Phanteks T30 | LG OLED 27GS95QE 240Hz

Permalänk
Medlem
Skrivet av Tapperswe:

Har också G-sync och ett 1080Ti, jag använder i princip alldrig G-sync och framförallt i fps spel iom att det ger input lag. Ska jag vara ärlig ser jag bara skillnad med G sync på om spelet ligger under 75-80 fps eller dom få spel som hoppar mkt upp och ner i fps. Jag valde min skärm efter upplösning, en väldigt bra och prisvärd (5000kr) 1440p skärm som sen råkade ha G- sync.
Att välja GPU efter G- sync känns inte relevant alls för mig.

Håller med. VRR är numera så gott som meningslöst för 1440p. NU börjar ju GPU'erna från båda AMD och Nvidia bli så pass snabba så det knappt behövs VRR för 4K heller. Men 4K kombinerat med RT så är VRR säkert bra.

Permalänk
Medlem
Skrivet av raQblad:

Wow. Man kunde ju försvara 3-5000 spänn för ett riktigt bra grafikkort back in the days, men börjar bli svårt att knåpa ihop ett bra bygge när korten har nått ganska höga prisnivåer (tycker jag...). Blir nog en övergång till konsol för mig, och behålla den gamla trotjänaren av PC modell 2016 till eventuella RTS och 4X-spel i framtiden.

Kan bara hålla med.
Tog en titt på min gamla trotjänare HD6950 DCII. Det var det näst bästa AMD släppte (6970 var bättre) och jag vill minnas att det kostade runt 2500:- 2011-2012
Klassmässigt borde det motsvara 6800/3070.
Känns inte som att kronan mer än halverats i värde sedan dess...
Man kan i alla fall önska att priserna kommer sjunka

Permalänk
Medlem
Skrivet av anon322047:

klockrent , Nvidia förtjänar inga kunder eller konsumenter längre .

Men utan Nvidias kunder får du inte konkurrens som AMD nördarna skriker sig hesa om hela tiden 😂

Visa signatur

Louqe Ghost S1 + L TopHat | ASRock Phantom Gaming ITX | Intel Core i9-9900K | Corsair Vengeance LPX 32GB | Gigabyte GeForce RTX 2080 Ti 11GB | Corsair SF750 Platinum | Samsung 970 EVO Plus 500GB | Intel 660P 2TB | Custom Vattenkylning CPU/GPU | Windows 11 Pro x64

Permalänk
Medlem

Kanske blir ett 6800 XT då! Ganska kul i och med att jag hade ett XFX Geforce 6800 XT Runt 2004/2005 någon gång.

Visa signatur

Fractal Design Define C (Noctua 2x 140 1x120)| MSI X370 Krait Gaming | Ryzen 3700X | Noctua DH15-S | G. Skill Flare X (3200Mhz XMP) | ASUS TUF RTX 3070 OC | Kingston A2000 1Tb NVMe & 2x Samsung 850 Evo 500Gb | EVGA Supernova G2 650W |

Permalänk
Medlem

Någon som har sett/hört om multi GPU/crossfire stöd?

Visa signatur

Kan din dator göra det här?

Permalänk
Moderator
Testpilot
Skrivet av Magnus112233:

Håller med. VRR är numera så gott som meningslöst för 1440p. NU börjar ju GPU'erna från båda AMD och Nvidia bli så pass snabba så det knappt behövs VRR för 4K heller. Men 4K kombinerat med RT så är VRR säkert bra.

Fast detta är ett moving target. Spelen öser på med mer detaljer ju kraftfullare GPU:we som finns tillgängliga.

VRR för mig handlar om att släta ut droppen. Många spel rulla på fint i 100+FPS på min dator men i intensiva scener droppar det ibland ner till 70-80 och upp igen. VRR hjälper till att göra upplevelsen mer mjuk än utan.

Förr i tiden var jag alltid aggressiv men inställningarna för att se till att under alla omständigheter ligga över, på denna tiden, 60 FPS. Nu behöver jag inte tänka lika mycket på det. Ett par dropp då och då stör mig inte lika mycket med VRR som utan.

Vilket i praktiken för mig innebär att jag inte är lika snabb med att uppgradera mitt GFX.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av marcusOCZ:

Är väl $699 fortfarande for 3080?

Det verkliga priserna (billigaste kortet just nu) borde vara måttstocken. Inte vad kortet släpptes för. 3080 höll knappt släpppriserna i en dag innan de höjdes.

Permalänk
Hjälpsam
Skrivet av magma86:

--- Text ---
Om de siffror som visats från Igors lab stämmer behöver man ett rx 6800 xt för att få identisk RT-prestanda som ett 3070.
https://www.igorslab.de/en/3dmark-in-ultra-hd-benchmarks-the-...

Tror att det blir lite som med Tesselering, fläskar man på med RT, så att kortets RT-del storknar, kommer det att bromsa.
Sänker man RT ett steg, kommer det inte längre hänga på RT-delen, utan något annat.

När Tesselering kom visade det sig att Nvida var betydligt kraftfullare på detta än AMD, AMD hade en dedikerat krets som man kunde få att storkna, Nvidia använde sina Cudakärnor för detta.
Vi fick då ett par spel som använde Tesselering, så mycket att de blev nästan ospelbara på AMD, dessa spel ingick i Nvidias partnerskapsprogram, även prestandan på Nvida blev lidande, men det var det tydligen värt.

Vi då fick en slider i AMD:s drivrutiner, som kunde sänka Tesseleringen, utan att det blev någon påverkbar skillnad i kvalité, numera är Tesseleringen "AMD-optimerad" som standard.
Kommer nog få något liknande för RT, som förhindrar att Nvidia, via sitt partnerskapsprogram, försöker sig på en fuling även där.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av marcusOCZ:

$699 på sidan till Nvidia i alla fall.

Lycka till och få tag på det . Samma med 2080 ti som låg på 1200 dollar egentligen för 999 och för 2080 som egentligen låg på 799 i stället för 699 .

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk
Medlem

Konkurrens SNÄLLA! Radeon™ RX 6800 XT fool us and make-believe it's true!

Visa signatur

Den som har mest prylar när hen vinner dör

Permalänk
Medlem
Skrivet av Yoshman:

Det tog över ett år för Khronos att fixa till Mantle så det på något realistiskt sätt gick att köra effektivt på något annat än CGN. D.v.s. att Mantle var "öppet" var i praktiken helt värdelöst då designen var helt baserad på en specifik GPU-implementation, d.v.s. rätt likt hur DLSS är helt designat runt Nvidias nuvarande Geforce kretsar.

Tycker detta låter som ett typiskt fall som inte ens är värt att diskutera att göra öppet- Smart Access Memory då alltså, då det verkar handle helt om en metod som fungera mellan två hårdvaruprodukter som designats med det i åtanke.

Skrivet av Toss3:

Spekulation kring AMDs raytracing prestanda:
https://videocardz.com/newz/amd-ray-accelerator-appear-to-be-...

"We have also ran the benchmark on the GeForce RTX 3080 with stock clock and power targets using a precompiled executable file. The RTX 3080 scored 635 framerate on average from three 1 minute runs.

This means that GeForce RTX 3080 is around 33% faster than Radeon RX 6800 XT in this particular benchmark. OF course, there are few things that need to be taken into the account such as the testing platform and DXR benchmark resolution (AMD did not clarify, hence we used default)."

Det finns nog en anledning att de inte hade några benhmarks för det med För min del bryr jag mig inte riktigt- RT är inte riktigt på den nivån än att det spelar någon roll för min del.

Skrivet av Nastycrew:

Ang RT så glömmer folk bort att nvidia är på andra gen och amd första, klart nvidia kommer prestera bättre i RT.

Yup!

Skrivet av Daemon85:

Hänvisar till folk på Youtube som sett oberoende resultat.
Vågar garantera att amd i deras egna tester använder sin senaste 5000 serie cpu med sin egna gpu och sen Intel med nvidias gpu. Amd har gjort denna taktik förut med olika system för att få sina egna produkter att glänsa.

Skulle inte vara så säker på den delen, men litar heller aldrig på siffror direkt från varken nvidia eller AMD.

Skrivet av raQblad:

Wow. Man kunde ju försvara 3-5000 spänn för ett riktigt bra grafikkort back in the days, men börjar bli svårt att knåpa ihop ett bra bygge när korten har nått ganska höga prisnivåer (tycker jag...). Blir nog en övergång till konsol för mig, och behålla den gamla trotjänaren av PC modell 2016 till eventuella RTS och 4X-spel i framtiden.

Ska man inte köra i 4k eller högre så klarar man sig rätt gott på "modell 2016" en stund sannolikt. Om spel du kör kan spelas lika väl på konsol så är det ju lika väl- mina övergångar till konsol har aldrig lyckats

Skrivet av Yoshman:

Är själv övertygad om att det finns massor med optimeringspotential runt ray-tracing i spel. Det vi sett så här långt är i praktiken quick-hacks för att få in DXR i existerande spelmotorer. När spel byggda från grunden för DX12/DXR hittar ut lär vi få se större grafisk utväxling på samma beräkningsbudget. Allt detta tar tid, spel är idag rätt gigantiska kodbaser där ledtiden för utveckling räknas i flertalet år. De AAA-titlar vi ser nu är fortfarande sådana som startades innan Turing lanserades!

Är rätt taggad för Teardown där dennis gustafsson verkar ha snickrat ihop sin egna implementering som fungerar på det mesta. Voxelbaserad grafik så givetvis är det inte lika mycket komplexitet heller. (say that to minecraft though)

Skrivet av Tapperswe:

Har också G-sync och ett 1080Ti, jag använder i princip alldrig G-sync och framförallt i fps spel iom att det ger input lag. Ska jag vara ärlig ser jag bara skillnad med G sync på om spelet ligger under 75-80 fps eller dom få spel som hoppar mkt upp och ner i fps. Jag valde min skärm efter upplösning, en väldigt bra och prisvärd (5000kr) 1440p skärm som sen råkade ha G- sync.
Att välja GPU efter G- sync känns inte relevant alls för mig.

Jag kan känna skillnad med Freesync av eller på när jag ligger under 100, inte så mycket att se skillnad som att input känns mer direkt liksom. Men jag kör också oftast med det av- när jag köpte min skärm hade jag ett 1080Ti i speldatorn men även ett par Vega 64 och kände att det är lika bra att köpa något som kan fungera med båda på lång sikt, vilket Freesync verkade sannolikt att göra men G-Sync verkade sannolikt att definitivt inte göra.

Skrivet av leafbranch:

Så en papperslansering ändå...

Nope! Det återstår att se om korten finns tillgängliga på utsatta datumet, men det detta är inte hittills mer papperslansering än vad allt annat isåfall är då man oftast får veta generella specs på produkter innan de släpps. Jag har inte sett att AMD någonstans lovade att korten skulle finnas tillgängliga nu, enbart att det skulle ha "announcement". Så är det alltid med lanseringar av grafikkort.

Om det inte finns kort att beställa på datumet de släpps så kan vi börja ropa om papperslansering.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av ThomasLidstrom:

Kan bara hålla med.
Tog en titt på min gamla trotjänare HD6950 DCII. Det var det näst bästa AMD släppte (6970 var bättre) och jag vill minnas att det kostade runt 2500:- 2011-2012
Klassmässigt borde det motsvara 6800/3070.
Känns inte som att kronan mer än halverats i värde sedan dess...
Man kan i alla fall önska att priserna kommer sjunka

3070 kostar väl 6000ish på release som det verkar nu, men vi går på Strix eftersom DCII inte var den billiga kylaren och säger 7500. Då snackar vi tredubbelt pris för ~10x högre prestanda, mer vid 4k upplösning, mindre vid 720p när processorn flaskar. Prestanda per krona är ändå 3x högre och 3060 lär ge bättre värde än så.

Tror det hamnat på tapeten ett par gånger nyligen, men det som hänt med GPUer är snarare att man öppnat upp mera med större och dyrare kretsar. FPS/krona har fortsatt öka, men vill man verkligen ha fetare hårdvara så finns möjligheten nu. De flesta som stör sig verkar ha legat i näst högsta/högsta klassen förut och stör sig mer på att de inte längre vill betala vad det kostar för toppkortet. Du får fortfarande obscent mycket mer prestanda för samma peng om du köper ett kort i samma klass, det är bara det att man lagt till nya högre klasser ovanpå de gamla.