Hur kommer grafikkorten se ut om 6-10 år?

Permalänk
Medlem

Hur kommer grafikkorten se ut om 6-10 år?

Det är många som återfår modet att påbörja nytt bygge nu när priserna börjar komma ner igen. Men när man tittar på Nvidia och AMDs top-of-the-line kort så ser vi skyhöga energiförbrukningar och höga temperaturer att tämja. Hur kommer det egentligen att se ut i framtiden, säg 6 till 10 år framåt? Har vi nått gränsen för vilken prestanda vi kan preja in i ett kort med relativt liten formfaktor (med beaktning för hur mycket större kylflänsarna har blivit (luftkylda kort))? Kommer framtidens kort kräva vattenblock? Kommer vi måste säkra datorhörnan mot 16A? Ett riktigt kraftigt grafikkort går ju hand i hand med en riktig kraftig CPU, där motsvarande också börjar nå upp till ganska galen strömförbrukning jämfört med vad vi sett tidigare år.

Jag inser att jag ställer många frågor samtidigt men kan ju inte låta bli att fundera, och det känns verkligen som att det krävs ett nytt 'leap' i verkningsgrad sett till strömförbrukning för att utvecklingen ska vara hållbar och för att det fortfarande ska gå att brukas kommersiellt.

Dela med er av tankar, är vi en jobbig era just före ny teknik där top-of-the-line prestanda kräver extrem kylning och har skyhög energiförbrukning eller kommer det bara bli värre?

PS. Här är datan jag gjorde tabellen av, fick det inte riktigt så snyggt som jag ville då jag inte är van google spreadsheets. Tagit all data från nvidias hemsida.

Permalänk
Inaktiv

Här hemma bör vi nog inte oroa oss för blåsa säkringar eftersom vi har 230v men värre är det där de envisas med 110v. Jag skulle bli förvånad om "gaming-kort" någonsin överskrider 500-600W märkbart.

RTX 4090 är ju ändå relativt lättkylt och fungerar bra med tillverkarnas kylarlösningar. Tittar man på "low-end" eller tom. "mid-range" så anser jag att vi har effektiva kort idag och förhopnningsvis förblir det så.

Edit. Värre blir det ju förstås om vi kräver stora prestandakliv varje generation men en stor del av gamers (iaf som kommenterar online) verkar ha fått nog av strömtörstiga kretsar. Oavsett kommer ju taket emot någonstans när det varken är rimligt eller möjligt att öka mer.

Det går ju inte liksom att "kräva" RTX4090 prestanda och säga att "de borde dra max 250W" som man ofta läser online, sådana trollkommentarer ignorerar jag. Visst kunde t.ex. EU gå in och säga att en privat dator bara får dra 500W men då är vi tvungna att acceptera lägre prestanda och endast små kliv mellan generationerna.

Permalänk
Medlem
Skrivet av anon347775:

Här hemma bör vi nog inte oroa oss för blåsa säkringar eftersom vi har 230v men värre är det där de envisas med 110v. Jag skulle bli förvånad om "gaming-kort" någonsin överskrider 500-600W märkbart.

Även USA håller ju på att fasa ut 110V så snart inte problem där heller.

De har ju över 200V till husen och omvandlar ner till 110V inne i huset.

Visa signatur

i9 11900k ||32GB 4000MHz CL15||ASUS ROG STRIX Z590-E||Noctua NH-D15s
Intel Arc a750 ||Samsung 980 pro|| EVGA Supernova G3 850W
Asus xonar essence STX|| Lian-Li O11 Dynamic XL
Asus VG27AQ 165Hz IPS, Sennheiser HD650, Logitech g502 Hero, fUnc f30r, Vortex TAB90M, Audio-Technicha ATR2500x-USB
Server: x10SL7-F, Xeon E3 1230v3, 32GB Samsung ECC ram, 6x3TB WD RED, FD Node 804.

Permalänk
Medlem

Jag är mest förvånad att vi fortfarande behöver en CPU.
Alla GPU'er numera klarar ju att köra "vanlig" kod, och att köra ett OS är bara ett litet steg till.
Stoppa din GPU på ett bakplan för att kunna expandera lite bara.

Permalänk
Medlem
Skrivet av Veen:

Det är många som återfår modet att påbörja nytt bygge nu när priserna börjar komma ner igen. Men när man tittar på Nvidia och AMDs top-of-the-line kort så ser vi skyhöga energiförbrukningar och höga temperaturer att tämja. Hur kommer det egentligen att se ut i framtiden, säg 6 till 10 år framåt? Har vi nått gränsen för vilken prestanda vi kan preja in i ett kort med relativt liten formfaktor (med beaktning för hur mycket större kylflänsarna har blivit (luftkylda kort))? Kommer framtidens kort kräva vattenblock? Kommer vi måste säkra datorhörnan mot 16A? Ett riktigt kraftigt grafikkort går ju hand i hand med en riktig kraftig CPU, där motsvarande också börjar nå upp till ganska galen strömförbrukning jämfört med vad vi sett tidigare år.

Jag inser att jag ställer många frågor samtidigt men kan ju inte låta bli att fundera, och det känns verkligen som att det krävs ett nytt 'leap' i verkningsgrad sett till strömförbrukning för att utvecklingen ska vara hållbar och för att det fortfarande ska gå att brukas kommersiellt.

<Uppladdad bildlänk>

Dela med er av tankar, är vi en jobbig era just före ny teknik där top-of-the-line prestanda kräver extrem kylning och har skyhög energiförbrukning eller kommer det bara bli värre?

PS. Här är datan jag gjorde tabellen av, fick det inte riktigt så snyggt som jag ville då jag inte är van google spreadsheets. Tagit all data från nvidias hemsida.
<Uppladdad bildlänk>

Den har varit uppe förr, men mina tankar för mig till videon ännu en gång

"power consumpotion of just 1kW"

Visa signatur

🧠i9-10900k @ 3,7GHz 📹3080Ti STRIX OC 12GB 📼Corsair Vengeance 64GB
📰MSI MEG z490 Unify 💽Samsung 970 EVO plus 500GB/1TB 📺Asus PG348Q 34"

Permalänk
Medlem
Skrivet av anon347775:

RTX 4090 är ju ändå relativt lättkylt och fungerar bra med tillverkarnas kylarlösningar. Tittar man på "low-end" eller tom. "mid-range" så anser jag att vi har effektiva kort idag och förhopnningsvis förblir det så.

Edit. Värre blir det ju förstås om vi kräver stora prestandakliv varje generation men en stor del av gamers (iaf som kommenterar online) verkar ha fått nog av strömtörstiga kretsar. Oavsett kommer ju taket emot någonstans när det varken är rimligt eller möjligt att öka mer.

Det skrämmande menar jag är väl hur fort strömförbrukningen för high-end kort har ökat. Nu var det ju också ovanligt höga kliv i prestanda från 3000-serien framåt men om man extrapolerar ökningen över 6-10 år i framtiden så ser vi ju att det är absolut inte hållbart.

Kommer TDP'n på high-end kort plana ut nu för att låta framtidens kort jaga ikapp och bli mer effektiva eller kommer vi stå med ett GTX6090Ti år 2028 med en TDP på 1000w och en CPU på 600w för att driva kortet?

Permalänk
Medlem

Jag tror rent spekulativt att vi kan komma att nå 1000W i framtiden, det hade iallafall inte förvånat mig.

Något många glömmer är att när det gäller spel så är ju SLI/Crossfire dött. Förr kunde du stoppa in fyra kort och det drog mer än vad 4090 gör idag. Ett GTX 780 drar 250W. Tryckte du in 4 stycken såna i din dator drog endast grafiken 1000W.
Nu när det inte går att köra SLI/Crossfire längre känns det ändå lite logiskt att man ökar strömkonsumtionen på enskilda kort istället.

Permalänk
Medlem
Skrivet av BergEr:

Även USA håller ju på att fasa ut 110V så snart inte problem där heller.

De har ju över 200V till husen och omvandlar ner till 110V inne i huset.

Dom har 240 in i husen om du mäter fas fas men mäter du fas nolla får du 110V
Så dom omvandlar inte ner spänningen.

Här kommer en lite video om hur det funkar.
https://www.youtube.com/watch?v=fJeRabV5hNU

Visa signatur

Moderkort: B550M AORUS PRO , Minne: 64GB 3600Mhz HDD1: Intel 660P M2 1TB, HDD2: Kingston A400 960GB CPU: 5700X, Kylning: NH-D15 black GPU: RTX 4080 VENTUS 3X OC Låda: Define 7 Compact Glass, PSU: RM650i
Mus: G502 Wireless Lightspeed, Tangentbord: Strafe RGB MK.2, Monitor: LC49G95TSSRXEN
Surfplatta: Galaxy Tab S9 FE, Telefon: Pixel 9

Permalänk
Medlem

Ja, de flesta kommer såklart att ha GPU, CPU och RAM integrerat med varanda, det kommer att räcka för de flesta som spelar, men visst kommer det att finnas en liten nisch för riktiga värstingkort. Men de kommer nog att användas mestadels kommersiellt. Spelar ju ingen roll om strömförbrukningen fördubblas om prestandan fyrfaldigas, typ.

Visa signatur

ASUS P8Z68-v Pro i7 2600K@4.5, 32GB RAM, RX 580, 4K Samsung u24e590, Intel SSD, Seagate SSHD, LG BH16NS55 BD/RW, MacOS Sonoma, Win 10+11, Linux Mint
***gamla grejor duger***
Macbook Pro 2009, 8GB RAM, SSD, MacOS Catalina + Windows 10; Macbook Pro 2015 16GB RAM 512GB SSD Radeon Mojave

Permalänk
Inaktiv
Skrivet av Veen:

Det skrämmande menar jag är väl hur fort strömförbrukningen för high-end kort har ökat. Nu var det ju också ovanligt höga kliv i prestanda från 3000-serien framåt men om man extrapolerar ökningen över 6-10 år i framtiden så ser vi ju att det är absolut inte hållbart.

Kommer TDP'n på high-end kort plana ut nu för att låta framtidens kort jaga ikapp och bli mer effektiva eller kommer vi stå med ett GTX6090Ti år 2028 med en TDP på 1000w och en CPU på 600w för att driva kortet?

Det beror som sagt helt på oss konsumenter vilka krav vi har på prestanda och vad vi är villiga att betala men med det sagt så är jag övertygad om att ett 1000W kort hade sålt helt okej också bara prestandan fanns där.

Personligen är jag inte intresserad av dessa kort eftersom jag tycker de kostar onödigt mycket i förhållande till hur lite jag spelar och vad/hur jag spelar.

Edit. Att de skulle tillverka säg 2000W kort för 200k SEK rör mig inte det minsta utan det är väl bara bra om det finns något för alla.