AMD: "Mer effekthungriga grafikkort en oundviklig trend"

Permalänk
Melding Plague

AMD: "Mer effekthungriga grafikkort en oundviklig trend"

Begränsade energifördelar med ny tillverkningsteknik och hård konkurrens ligger bakom att grafikkort stävar mot högre effektuttag, förklarar AMD:s Sam Naffziger.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk

Någon som har koll på hur mycket i genomsnitt Nvidia eller AMD har vunnit på prestanda per W de senaste fem till tionde senaste generationerna?

Permalänk
Medlem

Jag ska inte säga att jag var fullt medveten om detta för det var jag inte, men samtidigt så blev jag inte förvånad i heller!

Visa signatur

XFX Radeon RX 7700 XT Speedster QICK 319 Black Edition | AMD Ryzen R7 5700X | Noctua NH-D15 | Asus TUF Gaming B550-Plus | Kingston Fury Beast DDR4 3600MHz 4x8GB | Samsung 990 Pro 1TB | Corsair HX1000i | Fractal Design Define S | LG 27GL83A | Corsair K95 Platinum | Corsair Sabre RGB PRO Wireless | Corsair Void Elite Wireless

Permalänk
Skrivmaskin
Skrivet av Dinkefing:

Någon som har koll på hur mycket i genomsnitt Nvidia eller AMD har vunnit på prestanda per W de senaste fem till tionde senaste generationerna?

Det är lite halvknepigt att säga, eftersom energieffektiviteten varierar en hel del från kort till kort. I Tom's Hardwares intervjuartikel som ligger till grund för det här lyfter de vissa jämförelser på AMD-sidan:

"Looking specifically at AMD's graphics parts over the past two generations, RDNA back in 2019 delivered a clear 50% or more improvement in performance per watt compared to the previous generation Vega and Polaris architectures. For example, our own testing results from our GPU benchmarks hierarchy show that the RX 5700 XT averaged 74 fps in our 1080p test suite while consuming 214W, compared to 57 fps from the RX Vega 64 that consumed 298W — that's actually an 80% boost in performance per watt with those two parts.

RDNA 2 in 2020 was able to again deliver up to 50% higher performance per watt compared to RDNA. Except, we have to clarify that "up to" business. For example, the RX 6600 averaged 67 fps at 1080p ultra and consumed 137W, which is 41% better efficiency than the RX 5700 XT. Meanwhile, the RX 6700 XT delivered 96 fps while using 215W, only a 30% improvement in pure efficiency, while the RX 6800 XT reached 124 fps and used 303W, only 18% better efficiency. The RX 5500 XT 8GB, however, averaged 40 fps with 126W, so the RX 6600 was 54% more efficient in at least some cases — and that's using a similar 128-bit memory interface."

Permalänk
Medlem

Så länge effektiviteten ökar så tycker jag inte vi har något att klaga på, vill man inte ha ett grafikkort som drar mycket ström får man köpa ett sämre kort. Tycker det är alldeles för mycket hysteri pga att kort kan dra över 300w, vill folk att de ska göra sämre kort eller?

Permalänk
Medlem

Så vad tror vi, med tanke på att topp korten troligen kommer dra över 400w, kommer det bli vanligt med kylare som kräver 4 kortplatser den här generationen? 😳

Permalänk
Medlem

Jag tror grafikkorten stannar om det börjar brinna får vi hoppas..

Permalänk
Medlem

Jag undra också är det mer eller mindre kört för mig att köra toppkort från nästa gen med ett 750w supernova v2? Nvidia 4090 verkar ju detta vara sant iaf men jag är mer ute efter 4080/4070 - 7800 XT segmentet.

Visa signatur

Asus X470 gaming-f, 5800x, 7900xt, g.skill 32gb 3200 cl 14.

Permalänk
Medlem

Som en som fick tag på ett RTX3080 till rimligt pris väldigt sent, det får nog duga ett bra tag framöver med sina 370W!

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem
Skrivet av lille7:

Så länge effektiviteten ökar så tycker jag inte vi har något att klaga på, vill man inte ha ett grafikkort som drar mycket ström får man köpa ett sämre kort. Tycker det är alldeles för mycket hysteri pga att kort kan dra över 300w, vill folk att de ska göra sämre kort eller?

Ah, så köpa ett sämre kort så jag får samma prestanda som jag redan har?

Permalänk
Medlem
Skrivet av lille7:

Så länge effektiviteten ökar så tycker jag inte vi har något att klaga på, vill man inte ha ett grafikkort som drar mycket ström får man köpa ett sämre kort. Tycker det är alldeles för mycket hysteri pga att kort kan dra över 300w, vill folk att de ska göra sämre kort eller?

Låter som du säger att mer W = bättre.

I verkligheten så är mer W = sämre.

Permalänk
Medlem

Självklart, mer strömförbrukning är naturligt för att undvika kryptogrävandets lönsamhet. Detta har jag hävdat i 2 år nu, men ingen har trott på mig.
Att det blir dyrare för spelintresserade är såklart baksidan av det här myntet, men att spela på ett grafikkort för 20k är ju knappast billigt det heller, skillnaden är att man får betala för användning istället för en klumpsumma.

Visa signatur

*5600|B350M-A|32GB|A750|GX750W|Core V21|280AIO|1TB+2TB.

AMD Ryzen 5(Zen3) @4891|Asus Prime|Corsair 2x16 RGB PRO 3200C16 @3800C18|Intel Arc LE @2740MHz|Seasonic Focus| Thermaltake mATX kub|Arctic freezer II| NVMe SSD PCIE 3.0x2 Kingston A1000 1500/1000 + 2,5" HDD Toshiba 1TB & Samsung 1TB i RAID 0.

Permalänk
Medlem

Allt är väl möjligt om man bara har tiden på sin sida. Jämför jag vilken prestanda jag har på min mobiltelefon idag i jämförelse med den c64 som ligger i källaren så menar jag på att de kan göra kretskort som drar mindre, men att konkurrensen tvingar samtliga företag att göra en snabblösning där prestandan trumfar effektuttaget.

Att stå å peka på att det är omöjligt är bara ett sätt för företagen att slå sig fria från ansvaret då resten av samhället skall ställas om till energisnålare alternativ. Låt EU sätta en gräns vad grejerna får dra så skall ni få se att det faktiskt går, bara det att vi kanske får vänta ett par extra år på liknande prestandakort.

Visa signatur

Star citizen - swedish umbrella. En svensk union för er spelare och organisationer som tycker om demokratiska val.
https://robertsspaceindustries.com/orgs/SWEUMB
Discord:
https://discord.com/invite/j5AkGERJz3

Permalänk
Skrivet av Lordsqueak:

Låter som du säger att mer W = bättre.

I verkligheten så är mer W = sämre.

Först måste man definiera vad man mäter. Om man vill ha maximal prestanda är mer effekt bättre, då mer effekt typisk ger mer prestanda inom samma generation.

Visa signatur

Dator: MSI B550 Tomahawk || AMD 5600X || Noctua NH-U12S || MSI RTX 2070 Armor 8GB || Kingston HyperX 32GB @ 3600MHz CL16 || PNY CS3030 1TB + SSD 500GB + HDD 4000GB || Phanteks Enthoo Pro || Corsair AX 760W

Permalänk
Medlem

Låt standarden ligga kvar på 250W, och låt partnermodeller ta ut svängarna som vanligt, då kan det dessutom finnas vettigt utrymme att klocka lite (köp då en partnermodell med stöd för 500W eller så)

Effektbudget kan absolut få vara vad som helst, men blir lite som med laptops att kylare och testernas längd kommer avgöra hur vettiga siffror man ser i recensionen

Permalänk
Medlem
Skrivet av Lordsqueak:

Låter som du säger att mer W = bättre.

I verkligheten så är mer W = sämre.

Låter som du säger att ett 3050 (130W) är bättre än ett 3090 TI (450W)

Försök ta ditt nuvarande kort och begränsa det till 80W eller liknande och se om det presterar lika bra som när det har upplåst strämbudget.

Självklart är det så att givet samma krets kommer Nvidia (och AMD för den delen) kunna trycka ut mer prestanda ju högre strömförbrukning de tillåter grafikkortet att dra. Håller helt med @lille7, tycker man att kortet drar för mycket ström (vilket är helt legitimt att tycka) så är det ju bara att köpa ett kort som drar mindre ström (eller undervolta/underklocka ett högre presterande kort). Det viktiga är att energieffektiviteten fortsätter att bli bättre generation för generation (om nu nästa generation kommer öka energieffektiviteten vet vi dock inte än, men det låter ju troligt att det fortsätter bli bättre)

Är också bra att förstå att man inte får sämre absolut prestanda bara för att ett annat kort har högre absolut prestanda

Permalänk
Medlem
Skrivet av Swedman18:

Jag tror grafikkorten stannar om det börjar brinna får vi hoppas..

Va?

Visa signatur

Ryzen 7800X3D | Asus B650E-F | 32GB G.Skill DDR5 6000MHZ | PowerColor Red Devil 7900 XTX OC | Fractal Design North | Noctua NH-D15 chromax | Corsair RM850e | Kingston Fury Renegade M.2 2TB

Permalänk
Medlem
Skrivet av Fenrisulvfan:

Självklart, mer strömförbrukning är naturligt för att undvika kryptogrävandets lönsamhet. Detta har jag hävdat i 2 år nu, men ingen har trott på mig.

Fast så länge som det går att sänka klockfrekvensen och spänningen på korten så spelar det ingen roll för miners om korten drar mycket ström i standardläge, det första de brukar göra är ändå att sänka strömförbrukningen på korten.

Permalänk
Medlem
Skrivet av TateM:

Ju mer effekt ju varmare blir det?

Permalänk
Medlem

Begreppet Undervoltning har ju redan blivit välkänt, och inom en nära framtid kanske underklockning också slår i stugorna. 😛
(Jakten på en sänkning av strömförbrukning på säg 100 W utan att förlora märkbart med prestanda.)

Permalänk
Inaktiv
Skrivet av lille7:

Så länge effektiviteten ökar så tycker jag inte vi har något att klaga på, vill man inte ha ett grafikkort som drar mycket ström får man köpa ett sämre kort. Tycker det är alldeles för mycket hysteri pga att kort kan dra över 300w, vill folk att de ska göra sämre kort eller?

Exakt. Det är ju inget problem egentligen och detta är något jag har försökt lyfta fram i många trådar också.

Permalänk
Medlem
Skrivet av perost:

Fast så länge som det går att sänka klockfrekvensen och spänningen på korten så spelar det ingen roll för miners om korten drar mycket ström i standardläge, det första de brukar göra är ändå att sänka strömförbrukningen på korten.

Ja, det är klart, men hur kretsen är byggd kan begränsa möjligheterna att justera strömförbrukningen, dessutom borde det ju ligga i tillverkarnas intresse att hitta det mest effektiva läget för balansen mellan strömförbrukning och prestanda som standardläge.

Det är klart att prestandakronan är trevligare att ha än strömsnålhetskronan, men olika kort i samma serie kan ju sikta på olika kronor.
T.ex siktar nog RX 6400/RTX3050 nog mer mot strömsnålhetskronan, medans 6950 XT/RTX3090 Ti siktar på prestandakronan.

Visa signatur

*5600|B350M-A|32GB|A750|GX750W|Core V21|280AIO|1TB+2TB.

AMD Ryzen 5(Zen3) @4891|Asus Prime|Corsair 2x16 RGB PRO 3200C16 @3800C18|Intel Arc LE @2740MHz|Seasonic Focus| Thermaltake mATX kub|Arctic freezer II| NVMe SSD PCIE 3.0x2 Kingston A1000 1500/1000 + 2,5" HDD Toshiba 1TB & Samsung 1TB i RAID 0.

Permalänk
Medlem
Skrivet av Fenrisulvfan:

Självklart, mer strömförbrukning är naturligt för att undvika kryptogrävandets lönsamhet. Detta har jag hävdat i 2 år nu, men ingen har trott på mig.
Att det blir dyrare för spelintresserade är såklart baksidan av det här myntet, men att spela på ett grafikkort för 20k är ju knappast billigt det heller, skillnaden är att man får betala för användning istället för en klumpsumma.

Du har noll belägg för det här och det finns, som artikeln förklarar, väldigt rimliga förklaringar för varför det ser ut som det gör.

Permalänk
Avstängd

Det här kunde man ha sagt för 10 år sedan med. Klart det är om man absolut måste ha prestanda tronen till vilken kostnad som helst.
Tror knappast att nästa gens konsoler kommer gå från ca 200w till 500w dock.

Visa signatur

7800x3d, 64GB 6000cl30, Gigabyte X670 Gaming X AX (F9d) 12TB m.2/nvme, 8TB SSD, WD 2x12TB 5400rpm, XFX 7900xt, SoundBlasterX AE-5+, HP X34", Fractal Design Define 7, Corsair HX750, Topping MX3s, Ino Audio piMx, Dan Clark Audio Aeon 2 closed..
LG B1 65", Topping e70, Topping pa5 II plus, Guru Audio Junior+ (primärt) / Canton GLE 90, Nintendo Switch OLED, Pico 4 VR

Permalänk
Medlem

Det är snart dags för sweclockers att byta namn till undervolters.

Jag tror att mitt undervoltade 3080 Ti får hänga med ett par år till med lite hjälp av DLSS och FSR vid behov.

Visa signatur

Ryzen 7800X3D, 3080 Ti

Permalänk
Hedersmedlem

Helt rätt.

Så länge frågan "vilken tillverkare är bäst" besvaras av vilken tillverkare som har det snabbaste toppkortet av en betydande mängd av allmänheten så kommer trenden att kvarstå, och vi har redan passerat vad som är rimlig effektförbrukning för ett grafikkort i toppklassen i standardutförande.

Det viktiga är att det finns rimligare, mer effektivt balanserade grafikkort på marknaden som inte är dumsnålt konfigurerade med för lite VRAM t.ex., som man kan köpa som en vanlig användare.

Tiden då det är rimligt att som gamer eller ens entusiast välja topp-produkten är förbi sedan länge, och det är dags sedan länge att släppa mentaliteten att man blir bättre på något över huvud taget genom att betala för mycket för en topp-produkt. Wow, du har en i9-12900KS, ett RTX 3090 Ti, 64 GB DDR5, och en PCIe 5.0-SSD. Vilken fantastisk människa du är på grund av det, verkar vissa tro.

Toppkortet drar för mycket effekt? Who cares, nästan ingen vettig människa köper toppkortet. Köp ett vettigt kort i övre mellanklassen istället. (Undantag för de som t.ex. behöver stora mängder VRAM för specifika applikationer, eller de som tjänar pengar på att ha så snabb hårdvara som möjligt och kan motivera det kommersiellt, och de är försvinnande få.)

Din dator blir inte sämre för att det finns snabbare prylar på marknaden.

Permalänk
Avstängd

Att lägga på fler vedträn på ett problem är enkelt och kräver ingen investering från tillverkarens sida.

Att utveckla bättre algoritmer som får jobbet gjort utan att behöva fler transistorer eller mer ström hade varit att föredra, men det kräver en vilja och lite mer seriös utveckling.

Vem vet, det kanske hade resulterat i en riktig teknikrelaterad nyhet?

Permalänk
Hedersmedlem
Skrivet av BMac:

Att utveckla bättre algoritmer som får jobbet gjort utan att behöva fler transistorer eller mer ström hade varit att föredra, men det kräver en vilja och lite mer seriös utveckling.

Vem vet, det kanske hade resulterat i en riktig teknikrelaterad nyhet?

Ett bra exempel på det är de olika uppskalningsteknikerna som samtliga grafikkretstillverkare jobbar hårt på. DLSS, FidelityFX Super Resolution, XeSS och vad det heter. (Med olika bra resultat så klart...) Så det är ju inte direkt så att tillverkare *bara* kör med brute force...

Permalänk
Medlem
Skrivet av anon201296:

Exakt. Det är ju inget problem egentligen och detta är något jag har försökt lyfta fram i många trådar också.

Det blir ett problem om man vill ha bättre prestanda vid samma eller lägre strömförbrukning.

Permalänk
Hedersmedlem
Skrivet av DasIch:

Det blir ett problem om man vill ha bättre prestanda vid samma eller lägre strömförbrukning.

Nej? Det finns inte nödvändigtvis ett motsatsförhållande mellan topp-prestanda och maximerad perf/watt inom en generation.

Topp-produkten behöver inte vara (och är oftast inte) den mest energieffektiva.