Framtidens grafikkort får upp till 600 watt över 16 pinnar

Permalänk
Medlem

600w låter lite som fel utveckling även om det är bra att man får slippa oroa sig för att plugga in en massa olika kablar och så, samtidigt öppnar det upp för tillverkarna att tillverka ännu mera strömslukande kort i brist på andra knep att få prestandan upp i godtyckliga nivåer på nya generationer, förstås kyler du inget kort som skulle dra 500w+ med luft med bra temperaturer eller ljudnivå vilket öppnar upp för mera påskostade kylningsalternativ som i sin tur drar upp priset ännu mer, förinstallerade vattenkylningskort t.ex. brukar inte direkt vara billiga.

Nä gillar inte denna utveckling om jag ska va ärlig. Tänkt om de skulle släppa RTX 5080 Ti som kostar $1500 MSRP (säkert mer i butiken) med färdiginstallerad vattenkylningskit och drar 500w nästa?

Visa signatur

Intel® Core i7-13700K @ 5.7/5.6GHz | ASRock Z690 Extreme | G.Skill Trident Z 32GB @ DDR4-3400 CL14 | Samsung EVO series M.2 + Sata SSDs 2TB | Intel Arc A750 | SuperFlower Titanium 1000W | Gigabyte M32Q 32"/1440p 165Hz | Arctic Freezer II 360 AIO | Phanteks P500A D-RGB | Windows 10 & 11 x64 Professional

Permalänk
Medlem

Jag som precis uppgraderat min PSU.. Fast nu kanske jag inte heller kommer byta GPU på ett bra tag heller

Permalänk
Medlem

Är väl lika bra att klämma dit en vit Anderson SB175. 144V/175A, vilket borde räcka fram till 20kW.

Permalänk
Medlem

Verkligen ingen bra utveckling, och av flera orsaker. Den viktigaste orsaken är att tiotals miljoner grafikkort med nån 100W extra per styck ger stora energiutsläpp. En annan orsak som är viktig för mig personligen är att det blir svårare och svårare att bygga smått, och färre grafikkort kommer som 2 slot.

AMD har ju gjort framsteg gällande energieffektivitet, men till stor del handlar det om att det var rätt dåligt på den fronten med Vega och Polaris. Nvidia har ju stampar på stället sen 2016 ungefär. GTX 1080 och RTX 3060 har ju ungefär samma strömbudget, men prestandan skiljer bara runt 20%. Det är verkligen svagt på 5 år och 2,5 generation!

Visa signatur

Instead, why don't you go get me a big cup of coffee with so much fake sugar that the coffee itself gets cancer?

Louqe Ghost S1 MkII Limestone | Intel Core i5 11400F | Noctua NH-L12 Ghost S1 | Asrock B560M-ITX/AC | Crucial Ballistix 16gb 3466Mhz Cl16 | HP 3060 Ti Arctic Mod | WD Blue Nvme 1Tb | Corsair SF600 Platinum

Permalänk
Medlem
Skrivet av OSkar000:

Med för stor skillnad mellan de grafikkort som gemene man kan ha råd med och toppmodellerna som bara ett fåtal personer kan köpa så blir det väldigt svårt att optimera spel vettigt. Ska man vända sig till 0,1% av spelarna eller ska man göra 90% nöjda med ok grafik och vettig fps? Den stora merparten lirar på ganska medioker hårdvara ändå.

Det är därför grafikinställningarna går att skala.

Citat:

Måste precis alla spel gå att spela i 4k upplösning? Är alla spel ens gjorda för att kunna köras i såna upplösningar på den hårdvara som finns tillgänglig idag? Eller är det mest "det är teoretiskt möjligt men inte praktiskt användbart till nånting"?

Varför ha mer än 256 färger i 640x480 upplösning?

Citat:

Om man vänder på det, är spelen verkligen tillräckligt bra optimerade om de kräver grafikkort på den nivån vi har idag för att ens vara spelbara? Eller fläskar man på med en massa extra för att få fram en väldigt liten skillnad i utseende men som kräver många gånger mer beräkningskraft från grafikkortet?

Ptja, exakt hur bra grafik "ska" dagens kort kunna driva? Vi är fortfarande väldigt långt ifrån high-end grafik i realtid och utvecklingen dit kommer vara inkrementell.

Citat:

På något sätt så känns det som att man får väldigt lite tillbaka när man passerat en viss nivå, visst blir det lite snyggare men är det värt att lägga dubbla pengarna för att kunna höja kvalitetsinställningarna ett hack till med samma fps, eller omvänt... 10 fps extra för 5000kr?

Datorspelande har blivit väldigt mycket materialsport för vissa, på gott och ont.

Det är bara köra ett mellanklasskort för den som föredrar det.

Jag kör nästan uteslutande VR och dagens grafikkort är långt ifrån att kunna maxa det, och då snackar vi inte små förbättringar som kan göras.

Permalänk
Medlem

Jag snubblade över att Amphenol (en stor tillverkare av bl.a. kablar och kontakter) säljer 12VHPWR-kontakter, så man kan nog se det som i stort sett bekräftat då.

Men sen behöver det inte innebära att strömförbrukningen stiger generellt, redan dagens kort skulle ju kunna dra mycket mer ström med nuvarande kontakter om de ville. Som artikeln säger handlar det nog mest om att man vill ha en kontakt som passar alla grafikkort för att göra det enklare.

Att 3090 Ti kanske hamnar på 450W betyder inte heller att alla kort kommer dra mer i framtiden, gamla Radeon R9 295X2 hade t.ex. en TDP på 500W.

Permalänk
Medlem

Bra med standardisering.
Skulle dock behöva vara ännu tydligare kring nätagg som inte klarar de nivåerna.
Behåll en el två 6+2 pin för nätagg med lägre effekt (men endast en 6-pin för 350-400W) och tillåt nya kontakten bara för kraftigare nätagg (kan även ha några 6+2 pin för bakåtkompatibilitet).

Ang utvecklingen av prestanda skulle det behövas något mer, då 4K/UHD fortfarande är tungdrivet.
Men att grafikkorten ska dra uppemot 600W är ju rätt extremt, sen värmeutvecklingen på det. Grafikkort som tar 4-5 platser..
Kanske även dags att utveckla moderkorts-/chassistandarderna.

Permalänk
Medlem
Skrivet av cyklonen:

Bra! Borde ha införts för länge, länge sen. Egentligen tycker jag att redan kortplatsen borde haft kontakter för, säg, 1000 W så man slapp kablar helt och hållet till själva grafikkortet. Bara plugga in direkt i moderkortet, diskret i kanten nånstans.

Problemet är att det då behövs banor som leder 600W genom moderkortet viket inte är så lätt att designa utan att göra moderkorten extremt dyra, plus troligen någon ny form av PCI-E kontakt med många fler stift för ström. Dessutom skulle det ändå behövas någon ny form av kontakt på moderkortet för att få in den strömmen och då kan man liksom lika gärna sätta den kontakten direkt på grafikkortet om det ändå är dit strömmen ska.

Det komiska är att det kortet bara drog ca. 60W, 15W per VSA-100 chip. Nuförtiden kan man knappt få tag på ett low-end grafikkort som drar så lite (1050 drar väl 75W...).

Visa signatur

Ryzen 7 3800X, Asus Prime X370 Pro, 32 GB LPX 3600, Gainward RTX 3060 Ti Ghost, 7 TB SSD + 4 TB HDD

Permalänk
Medlem
Skrivet av Pepsin:

Problemet är att det då behövs banor som leder 600W genom moderkortet viket inte är så lätt att designa utan att göra moderkorten extremt dyra, plus troligen någon ny form av PCI-E kontakt med många fler stift för ström. Dessutom skulle det ändå behövas någon ny form av kontakt på moderkortet för att få in den strömmen och då kan man liksom lika gärna sätta den kontakten direkt på grafikkortet om det ändå är dit strömmen ska.

1. Detta ska införas på PCIe 5.0-kort. Det innebär helt nydesignade moderkort också, så det är inget hinder.
2. Man hade enkelt kunnat bygga en kanal enbart för ändamålet, med skärmade kablar, på baksidan av moderkortet. En rak kanal från kontakt på nån närliggande kant, till en kontakt på varje kortplats.
3. Med mitt förslag skulle ju kontakten sitta direkt på moderkortet, bara på baksidan, mot moderkortet. Ingen sladd behövs!

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem
Skrivet av Pepsin:

Problemet är att det då behövs banor som leder 600W genom moderkortet viket inte är så lätt att designa utan att göra moderkorten extremt dyra, plus troligen någon ny form av PCI-E kontakt med många fler stift för ström. Dessutom skulle det ändå behövas någon ny form av kontakt på moderkortet för att få in den strömmen och då kan man liksom lika gärna sätta den kontakten direkt på grafikkortet om det ändå är dit strömmen ska.

Det komiska är att det kortet bara drog ca. 60W, 15W per VSA-100 chip. Nuförtiden kan man knappt få tag på ett low-end grafikkort som drar så lite (1050 drar väl 75W...).

I perspektiv känns det helt sjukt ja. Och det var alltså ett kort med multipla GPUer som ansågs helt bizarrt.

Visa signatur

11600K@5.1 GHz + 32GB Corsair Vengeance RGB PRO 3200@3400 MHz + MSI RTX 2080 Super Gaming X Trio +
WDC Blue SN550 1TB + Black OEM SN730 500GB + Kingston A1000 480GB + A2000 500GB + NV2 1TB + 2TB R10 + RGB most of THE THINGS! + Corsair 4000D Airflow + 2*ZyXEL NSA326 2*3TB @ R1 + Netgear RN2100 4*3TB @ R10 + RN204 4*4TB @ R5 + Synology DS216j 2*4TB @ SHR R1 + DS418 4*8TB @ SHR R6
| tmp: R5 3600@4.2 GHz + 32GB 2666@3066MHz + 2070 8GB + 1 TB NV2 & 512GB SN730

Permalänk
Medlem

Hoppas inte detta är för de cutting edge (dvs. bleeding edge) grafikkort som irrar in på konsumentmarknaden.
Mycket arbete för ingenting i så fall.....

Visa signatur

|[●▪▪●]| #Lekburk#: Ryzen 3700X >-< GB-X570-AE >-< 32GB DDR4 >-< MSI RTX 3070 >-< 970 EVO 1TB SSD>--
--< Arctic Freezer 34 >-< FD Define R4 >-< Seasonic F.+ 650W >-< Acer XF270HUA >-< AOC Q2778VQE >--
#Servering#: Ryzen 1700@3,6GHz >-< Prime X470 Pro >-< 16GB DDR4 >-< GTX 1030 >-< 970 EVO 500GB SSD >--
--< Stockkylare >-< Antec P182 >-< Silver Power 600W >-< Samsung 245T |[●▪▪●]|

Permalänk
Medlem
Skrivet av OSkar000:

Det som behövs är inte en ny kontakt utan strömsnålare grafikkort. Prestanda finns så det räcker och blir över sen flera år tillbaka.

600w är som ett mindre element... inte precis det man vill stoppa in i en datorlåda placerad i ett ganska litet rum.

Det är väl bara att du köper budgetkort då. Och låter oss andra ta del av prestandutvecklingen.

Permalänk
Inaktiv
Skrivet av OSkar000:

Det som behövs är inte en ny kontakt utan strömsnålare grafikkort. Prestanda finns så det räcker och blir över sen flera år tillbaka.

600w är som ett mindre element... inte precis det man vill stoppa in i en datorlåda placerad i ett ganska litet rum.

Så länge inte alla spel går att köras i minst 144 fps på ultra så finns det inte tillräckligt med prestanda.

Om du inte vill ta del av prestandan, så kan du ju bara köpa ett billigare grafikkort som inte drar så mycket? Om nu prestandan räcker och blir över?

Permalänk
Medlem
Skrivet av cyklonen:

Bra! Borde ha införts för länge, länge sen. Egentligen tycker jag att redan kortplatsen borde haft kontakter för, säg, 1000 W så man slapp kablar helt och hållet till själva grafikkortet. Bara plugga in direkt i moderkortet, diskret i kanten nånstans.

Skrivet av medbor:

Men du skulle behöva en kontakt för varje pcie-slot ändå? Förstår inte vinsten helt ärligt. Sen ska moderkortet då kunna hantera den effekten, blir nog onödigt kostsamma kopparlager då...

EU förbjöd väl instickskort att dra för mycket senast vi närmade oss 500W? Trodde det var därför dual-gpu dog delvis...

Lösningen är ju oavsett att grafikkort inte borde dra 600W på en ensam GPU...

Istället för ytterligare kontakter direkt på moderkortet så kanske modulära moderkort är nästa grej, precis som nätaggregat.

Man bygger ut moderkortet med PCI platser med en inbyggd kontakt ifall det ska vara till något som drar mer än 75 W (så mycket pumpas väl igenom PCI-E?) och utan om instickskortet klarar sig med den ström som porten klarar att leverera.

Då köper man bara precis så mycket delar som man behöver och inte mer, får väl säkert ner mängden elektronikskrot en del om inte annat ifall det är delar som senare kan återanvändas till andra byggen.

Visa signatur

|| Citera för svar! ||

Chassi: Xigmatek Elysium | PSU: EVGA Supernova G2 750W | MB: ASUS Strix Z390-F GAMING | CPU: INTEL i9-9900K & Corsair H60 | GPU: Asus Strix RTX 2080 OC | SSD: Samsung 970 EVO 500 GB | RAM: HyperX Fury 4x8 GB CL16 2666 Mhz | Ljudkort: Asus Xonar D2X | Nätverkskort: TP-Link Archer TX3000E

Tangentbord: Keychron K8 Pro | Switchar: Boba U4 | stabilizers: AEboards Staebis V2

Permalänk
Medlem

Blir konfunderad över artikeln, rättare sagt bilderna då i mina lekmannamässiga ögon verkar alla bilderna vara på kontakter med 12 "pinnar" dvs 12 stift in in i kontakten vilket kanske inte är vad som menas med "pinnar" ?

Permalänk
Inaktiv

Fi fan va hemskt. Glad att jag lämnat PC som spelplattform.

Permalänk
Medlem

Bring it on ! Har mina 3360x140 + 2280x120 radiatorer redo att kyla det.

Permalänk
Medlem
Skrivet av Jarigan:

Blir konfunderad över artikeln, rättare sagt bilderna då i mina lekmannamässiga ögon verkar alla bilderna vara på kontakter med 12 "pinnar" dvs 12 stift in in i kontakten vilket kanske inte är vad som menas med "pinnar" ?

Det är 12 separata plus 4 i botten. Bläddra till bild 2 i andra bildrutan.

Permalänk
Skrivet av Jioker:

Känns som att Jevons Paradox spelar in bra här

Kan inte mer än hålla med, ser ut som det går i helt fel riktning om det propsas för en de facto standard.

Visa signatur

AMD Ryzen 5 2600 | MSI B450 Gaming Pro Carbon AC | Corsair 32GB CL 15 (4x8GB) DDR4 3000MHz | Corsair RM750X 750W v2 | MSI RTX 2060 Ventus XS 6GB | NZXT H440 Midi Tower :: ASUS VivoBook 15 X505ZA-BQ252T AMD Ryzen 7 | 2700U Radeon Vega 10
Vilken var din första?

Permalänk
Medlem
Skrivet av dlq84:

Det är väl bara att du köper budgetkort då. Och låter oss andra ta del av prestandutvecklingen.

Skrivet av anon134512:

Så länge inte alla spel går att köras i minst 144 fps på ultra så finns det inte tillräckligt med prestanda.

Om du inte vill ta del av prestandan, så kan du ju bara köpa ett billigare grafikkort som inte drar så mycket? Om nu prestandan räcker och blir över?

Problemet är ju (bland annat) att det här även tar ut sig på budgetkort. Dagens instegskort ligger ju på samma TDP som toppkort från ett par generationer sen. RTX 3060 har TDP på 170W och 6600 XT på 160W. Jämför det med GTX 1080 som 2016 hade TDP på 180W, och som var top of the line.

Tittar man på mellanklassen så är det ju rätt absurdt. RTX 3070 Ti har TDP på 290W, vilket är rekord för Nvidia före den här generationen, och då finns det tre kort högre upp. Det är också otroligt tomt på marknaden för lågprofilkort och kort utan extern strömförsörjning. Det bästa kortet du kan få tag på som low profile eller utan extern strömförsörjning är GTX 1650, vilket i dagsläget är 2,5 år gammalt och ansågs va för svagt redan då.

Utvecklingen har stått stilla, och istället för att göra bättre designs så pushar Nvidia (och AMD om än i mindre mån) bara mer ström genom chippen - långt utanför deras effektiva verkningsområden.

Visa signatur

Instead, why don't you go get me a big cup of coffee with so much fake sugar that the coffee itself gets cancer?

Louqe Ghost S1 MkII Limestone | Intel Core i5 11400F | Noctua NH-L12 Ghost S1 | Asrock B560M-ITX/AC | Crucial Ballistix 16gb 3466Mhz Cl16 | HP 3060 Ti Arctic Mod | WD Blue Nvme 1Tb | Corsair SF600 Platinum

Permalänk
Testpilot
Skrivet av OSkar000:

Det som behövs är inte en ny kontakt utan strömsnålare grafikkort. Prestanda finns så det räcker och blir över sen flera år tillbaka.

600w är som ett mindre element... inte precis det man vill stoppa in i en datorlåda placerad i ett ganska litet rum.

Vet inte om jag håller med här

Tycker fortfarande att RTX 3090 är ett för klent kort ärligt talat.
Den dagen jag kan spela de nyaste spelen i 4K UHD med stadiga 120 FPS som minimum, då är vi snart i mål för godtycklig prestanda. Allt under det och mer kan fortfarande hämtas, även om strömförbrukningen åker upp.

För den som kan nöja sig med lägre upplösning, lägre bilduppdatering eller tumma på bildkvalitén så finns det andra alternativ i mellansegmentet som drar betydligt mindre ström, om värme/ljudnivå är ett problem

Visa signatur

R < ROG G17 | R9 5900HX | 32GB 3200 MT/s | RTX 3070 >

G < R9 5900X | 32GB 3200 MT/s | ROG RTX 3090 Ti >

B < Katana X | Leobog Hi75 | Basilisk Ultimate >

Permalänk
Medlem
Skrivet av Sando:

Utvecklingen har stått stilla, och istället för att göra bättre designs så pushar Nvidia (och AMD om än i mindre mån) bara mer ström genom chippen - långt utanför deras effektiva verkningsområden.

Utvecklingen har inte stått stilla. Här ser du t.ex. att 3070 är drygt 20% effektivare än 2080 mätt i FPS/Effekt.
https://www.tomshardware.com/features/graphics-card-power-con...

Utöver det finns en trevlig aspekt i att många kort trivs bra av att undervoltas vilket ger en bra ökning av effektiviteten.

Permalänk
Medlem
Skrivet av HinFoo:

kan inte grafikkorten få en egen strömkontakt på baksidan? känns smidigare, mindre PSUer med, då kan inte folk klaga på utrseendet på insidan heller

Två anledningar till att det blir ett "nej"

  1. Stort och tungt, Grafikkortet är packat som det är

  2. Så fort du går över 60V är det ett nytt regelverk som skall följas. Petskydda, skapa avstånd mellan HV och LV etc

Om du inte använder en powerbrick som levererar 48, 24 eller 12V då. Men 600W blir en rejäl power brick!

Permalänk
Medlem

Att det kan komma en ny kontakt som levererar 600W betyder för övrigt inte att man kommer pressa framtidens grafikkort så högt. Vad det betyder är att man vill förenkla saker med en kontakt som kan leverera hög effekt, istället för 2 eller 3 kontakter.

Sen kan det mycket väl bli så att kommande generationer blir mer strömtörstiga. Tråkigt om så är fallet men verkligheten vi lever i är att vi inte längre får stora förbättringar av nya processtekniker och det går inte att optimera designen i oändlighet om man vill komma ut med nya produkter.

Permalänk
Medlem
Skrivet av cheben:

Om du inte använder en powerbrick som levererar 48, 24 eller 12V då. Men 600W blir en rejäl power brick!

Mjo, det här är 48V och 300W. Jag hoppar gärna över det där 600W powerbrick till grafikkortet...

Permalänk
Inaktiv

Gött att man inte spelar både för plånboken och miljön typ. Men iofs vem behöver en värmeanläggning i lyan med några såna igång nånstans där i framtiden så det kanske blir win win typ värmekamin och underhållning på samma gång. Värstingdatorn som matchar drar ju lite ström den också on top av det hela så allt samantaget kräver väl ett eget litet kärnkraftverk.

Permalänk
Medlem

600W... Herregud Greta kommer tycka varje gamer är en klimatbov

Permalänk

Snart så

Ja ni grabbar om några år så kommer ni sitta och säga "- min första pc, den drog långt under kilowatten den, det var tider det" och ungdomarna kommer svara "-käften gubbjävel, sitt inte o ljug nu igen, slå på kvävekylaren nu."

Permalänk
Medlem
Skrivet av Adlersparre:

Ja ni grabbar om några år så kommer ni sitta och säga "- min första pc, den drog långt under kilowatten den, det var tider det" och ungdomarna kommer svara "-käften gubbjävel, sitt inte o ljug nu igen, slå på kvävekylaren nu."

Skickar vi inte spillvärmen till fjärrvärmenätet?

Permalänk
Medlem

utvecklingen går i fel håll verkligen.. snart är det minikärnkraftverk i allas hem.