Framtidens grafikkort får upp till 600 watt över 16 pinnar

Permalänk
Medlem
Skrivet av Kvicksilver:

Tror att moderkortstillverkarna kommer att få tänka om lite i framtiden, gällande placeringen av NVME enheterna som brukar vara under grafikkorten.

Men vart finns det plats då...om grafikkortet tar all plats..om man inte har en PCI Riser bracket eller nått?

Visa signatur

AMD_PERAs Dator Galleri
Jag har försöker att hitta bra delar billigt: AMD, ASUS, MSI, Fractal Design, Corsair, Zalman, Noctua, Kingston, Seasonic, WesternDigital, Sapphire mfl.
Skitbra -sa Bill, Brakskit -sa Bull...
Det blir nog bra när det blir färdigt...Nu slipper jag intel, när RYZEN har kommit...

Permalänk
Medlem
Skrivet av AMD_PERA:

Men vart finns det plats då...om grafikkortet tar all plats..om man inte har en PCI Riser bracket eller nått?

Finns inget som säger att nvme enheterna måste sitta på mobot i framtiden. Lådan är full med potentiella nvme platser.
Dyr el och dessa hungriga kort kan göra det dyrt att spela i framtiden.

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem

Not till mig själv inför nästa husbygge:
- Installera dedikerad 3-fas skena och trafo för grafikkort i varje sovrum

Visa signatur

Allan, please add signature

Permalänk
Rekordmedlem

Det är lite löjligt att de inte dimensionerar för nästa generations kort på en gång och det finns ju redan kontakter för truckbatterier som skulle klara det så varför hitta på nått nytt som snart behöver bytas ?

Visa signatur

R5 5600G, Asus ROG STRIX X470-F Gaming, WD SN850X 2TB, Seasonic Focus+ Gold 650W, Aerocool Graphite v3, Tittar på en Acer ET430Kbmiippx 43" 4K. Lyssnar på Behringer DCX2496, Truth B3031A, Truth B2092A. Har också oscilloskop, mätmikrofon och colorimeter.

Permalänk
Medlem
Skrivet av Aka_The_Barf:

Finns inget som säger att nvme enheterna måste sitta på mobot i framtiden. Lådan är full med potentiella nvme platser.
Dyr el och dessa hungriga kort kan göra det dyrt att spela i framtiden.

Jo men var inte idén med M.2 att det sitter på moderkortet? så man slipper extra sladdar & snabbare access...
Grafikkortet kan väl sitta lite vart som helst i lådan...nära en fläkt, Så det får kylning...eller utanför fönstret på vintern...Bra kylning...

Visa signatur

AMD_PERAs Dator Galleri
Jag har försöker att hitta bra delar billigt: AMD, ASUS, MSI, Fractal Design, Corsair, Zalman, Noctua, Kingston, Seasonic, WesternDigital, Sapphire mfl.
Skitbra -sa Bill, Brakskit -sa Bull...
Det blir nog bra när det blir färdigt...Nu slipper jag intel, när RYZEN har kommit...

Permalänk
Avstängd
Skrivet av AMD_PERA:

Jo men var inte idén med M.2 att det sitter på moderkortet? så man slipper extra sladdar & snabbare access...
Grafikkortet kan väl sitta lite vart som helst i lådan...nära en fläkt, Så det får kylning...eller utanför fönstret på vintern...Bra kylning...

Dessa hungriga kort får ju inte plats vart som helst. Även nätaggen kommer bli större.

Visa signatur

7800x3d, 64GB 6000cl30, Gigabyte X670 Gaming X AX (F9d) 12TB m.2/nvme, 8TB SSD, WD 2x12TB 5400rpm, XFX 7900xt, SoundBlasterX AE-5+, HP X34", Fractal Design Define 7, Corsair HX750, Topping MX3s, Ino Audio piMx, Dan Clark Audio Aeon 2 closed..
LG B1 65", Topping e70, Topping pa5 II plus, Guru Audio Junior+ (primärt) / Canton GLE 90, Nintendo Switch OLED, Pico 4 VR

Permalänk
Rekordmedlem
Skrivet av AMD_PERA:

Jo men var inte idén med M.2 att det sitter på moderkortet? så man slipper extra sladdar & snabbare access...
Grafikkortet kan väl sitta lite vart som helst i lådan...nära en fläkt, Så det får kylning...eller utanför fönstret på vintern...Bra kylning...

Skrivet av Kaleid:

Dessa hungriga kort får ju inte plats vart som helst. Även nätaggen kommer bli större.

Det är snart dags att montera dem i bildvisaren och så har man en optofiber till datorn.

Visa signatur

R5 5600G, Asus ROG STRIX X470-F Gaming, WD SN850X 2TB, Seasonic Focus+ Gold 650W, Aerocool Graphite v3, Tittar på en Acer ET430Kbmiippx 43" 4K. Lyssnar på Behringer DCX2496, Truth B3031A, Truth B2092A. Har också oscilloskop, mätmikrofon och colorimeter.

Permalänk
Medlem

Styrning som nya kontakten har är troligen för att kunna "prata med nät agget" då även 450W agg kommer ha denna kontakt. För att minimera överlast så känner grafikkortet av hur mycket effekt som nät agget kan ge. Känns som en bra sak då många har dålig koll på nät agget.

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem

Tur att jag har en Corsair Obsidian 800D som ligger & skräpar...Man kan krypa in i den när man monterar...
Då får man plats med stora grejjer...

Visa signatur

AMD_PERAs Dator Galleri
Jag har försöker att hitta bra delar billigt: AMD, ASUS, MSI, Fractal Design, Corsair, Zalman, Noctua, Kingston, Seasonic, WesternDigital, Sapphire mfl.
Skitbra -sa Bill, Brakskit -sa Bull...
Det blir nog bra när det blir färdigt...Nu slipper jag intel, när RYZEN har kommit...

Permalänk
Skrivet av mrqaffe:

Det är lite löjligt att de inte dimensionerar för nästa generations kort på en gång och det finns ju redan kontakter för truckbatterier som skulle klara det så varför hitta på nått nytt som snart behöver bytas ?
https://i.imgur.com/JSngouX.png

haha

Visa signatur

Live for fun, Loyal to none

Permalänk
Medlem
Skrivet av OSkar000:

Det som behövs är inte en ny kontakt utan strömsnålare grafikkort. Prestanda finns så det räcker och blir över sen flera år tillbaka.

600w är som ett mindre element... inte precis det man vill stoppa in i en datorlåda placerad i ett ganska litet rum.

Exakt. Vad hände lixom? För några år sen trodde vi att vi skulle ha APU:Er som presterar som top-end kort. Nu är vi tillbaka igen på hur det var typ 2005 när man skulle ha 1000W PSU för att vara säker på att saker funkade

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Inaktiv
Skrivet av OSkar000:

Det som behövs är inte en ny kontakt utan strömsnålare grafikkort. Prestanda finns så det räcker och blir över sen flera år tillbaka.

600w är som ett mindre element... inte precis det man vill stoppa in i en datorlåda placerad i ett ganska litet rum.

Prestanda är verkligen inte tillräcklig ännu idag och det finns flera spel som är ospelbara i 4k ännu

Permalänk
Medlem
Skrivet av medbor:

Va? Nvidias 12-pin med extra påhängd floppy-el? Ser ut som skräp ärligt talat, hoppas inte branchen hänger med på detta!

Ja som skräp. Tängte på billiga usb 2 kontakter i chassin sin pajade hela tiden då jag så floppy påhänget.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem

kan inte grafikkorten få en egen strömkontakt på baksidan? känns smidigare, mindre PSUer med, då kan inte folk klaga på utrseendet på insidan heller

Permalänk
Medlem
Skrivet av 13ers3rk:

Nåväl, grafikkorten är inte den delen i en dator som är svår att kyla i dagsläget.

Hur menar du då? Grafikkorten är väl de som drar mest i en dator (med råge) och har störst kylflänsar.

Vad är svårare att kyla menar du? Chipset? RAM?

Permalänk
Medlem

600w!!!?!???!
Vad är tanken har för framtiden?
Just nu får mitt 3080ti 320 till 340w under Anno 1800 och Hitman III på 4K!

600!!
Hållbarhet? Klimatpåverkan?

Visa signatur

My Rig https://classic.prisjakt.nu/list.php?ftg_check=on&exclude_ftg...
Fel av mig! Men sjutton vad snabba ni är på att kommentera vad andra gör och inte gör rätt och fel... :/

Permalänk
Medlem
Skrivet av OSkar000:

Det som behövs är inte en ny kontakt utan strömsnålare grafikkort. Prestanda finns så det räcker och blir över sen flera år tillbaka.

600w är som ett mindre element... inte precis det man vill stoppa in i en datorlåda placerad i ett ganska litet rum.

Oj här kunde man överdriva? Så det räcker och blir över? Sen flera år tillbaka också? haha ja om man inte har några krav på bildrutor i spel kanske.

Har gått från 2070 > 2070 super > 3080 och skulle inte tacka nej till mer. Finn flera spel ajg inte kan nå 160hz i vilket min skärm är för. Att spela fps spel under 120fps stabilt är ett stort nej. Senast Battlefield 2042 betan där det droppar allt mellan 100-65 fps. Helt ospelarbart när det går under 90. Delvis har min cpu fått jobbat mer efter uppgraderingen till 3080 men dem båda ligger och tuggar med varandra. Och då kör jag i 1440 och tidigare 1080. 4K ska vi väll inte ens snacka om hur ospelbart det skulle vara.

F1 med raytracing påslaget runt 60 fps. Helt och hållet ospelbart om man inte har 0 krav på flyt. Cyberpunk ligger oftast cpun och limitar mig men med raytracing så har vi återigen GPU som limitar. Warzone allt mellan 110-135 fps ostabilt. Hade inte tackat nej till ett 4080 med en 50% prestandaökning. Visserligen hade min 9900k bottleneckat mycket mer men ska samtidigt uppgradera till fina 12900k när den kommer.

Sedan att dem borde sänka strömförbrukning och inte ÖKA är sjäkvklart. Rummet är som en bastu efter ett litet tag med Battlefield 2042 betan eller Diablo 2 Resurrected när GPUn flåsar ur sig all värme. Hade gärna sett en limit på max 400Watt på GPU eller att inte överhuvudtaget öka mer än nuvarande. Redan fått uppgradera mitt nätaggregat från ett nytt 650RM till ett 850RM när de lanserade 3080 och med en överklockad CPU.

Så nej. Prestandra på grafikkorten behöver fortsätta göra stora framsteg utan att det för dennes skull dra upp förbrukningen till orimliga nivåer som det verkar ha blivit en trend hos Nvidia och AMD att göra och nu även Intel kanske med Alder Lake.

Permalänk
Medlem

Att öka energieffektiviteten hos grafikkort och få dem att dra mindre ström verkar inte vara på tapeten. Kanske dags för en märkning av grafikkort som liknande PSU'er? Bronze, Silver, Gold o.s.v. utifrån hur bra energieffektivitet de har.

Permalänk
Medlem
Skrivet av Aka_The_Barf:

Finns inget som säger att nvme enheterna måste sitta på mobot i framtiden. Lådan är full med potentiella nvme platser.
Dyr el och dessa hungriga kort kan göra det dyrt att spela i framtiden.

Det får bli rejält mycket dyrare el om det ska bli summor på elräkningen som man reagerar på alternativt att man spelar ohälsosamt mycket.

Visa signatur

Ryzen 5 7600
Rx 6650xt
32Gb

Permalänk
Medlem

Visa signatur

11600K@5.1 GHz + 32GB Corsair Vengeance RGB PRO 3200@3400 MHz + MSI RTX 2080 Super Gaming X Trio +
WDC Blue SN550 1TB + Black OEM SN730 500GB + Kingston A1000 480GB + A2000 500GB + NV2 1TB + 2TB R10 + RGB most of THE THINGS! + Corsair 4000D Airflow + 2*ZyXEL NSA326 2*3TB @ R1 + Netgear RN2100 4*3TB @ R10 + RN204 4*4TB @ R5 + Synology DS216j 2*4TB @ SHR R1 + DS418 4*8TB @ SHR R6
| tmp: R5 3600@4.2 GHz + 32GB 2666@3066MHz + 2070 8GB + 1 TB NV2 & 512GB SN730

Permalänk
Inaktiv
Skrivet av Niolator:

Att öka energieffektiviteten hos grafikkort och få dem att dra mindre ström verkar inte vara på tapeten. Kanske dags för en märkning av grafikkort som liknande PSU'er? Bronze, Silver, Gold o.s.v. utifrån hur bra energieffektivitet de har.

De blir ju faktiskt mer effektiva hela tiden och det ser du enkelt om du sätter en power limit på ett modernt kort på säg 150W och ett gammalt på 150W så kommer ju det nya göra märkbart mer jobb.

"Problemet" är väl att effekten skruvas upp ytterligare för att få än mer prestanda än vad som annars hade varit möjligt

Edit: Nä jag tycker inte de ska hålla tillbaka med effekt utan vill vi ha mer prestanda så är mer effekt priset vi får betala. Alternativt köper man ett strömsnålt kort och spelar med kass prestanda om man vill det.

Permalänk
Medlem
Skrivet av jOnÄTÄn:

Det får bli rejält mycket dyrare el om det ska bli summor på elräkningen som man reagerar på alternativt att man spelar ohälsosamt mycket.

https://www.svd.se/elpriset-kan-ga-hur-hogt-som-helst-i-vinte...

Stämmer det kan det bli dyrt 😉

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem
Skrivet av AMD_PERA:

Jo men var inte idén med M.2 att det sitter på moderkortet? så man slipper extra sladdar & snabbare access...
Grafikkortet kan väl sitta lite vart som helst i lådan...nära en fläkt, Så det får kylning...eller utanför fönstret på vintern...Bra kylning...

Grafik kortet är stort otympligt och kommer ha mycket mer kablar än en liten m2 enhet....
Idén med m2 var nog det men idé världen och den riktiga världen krockar ibland 😉

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Hedersmedlem
Skrivet av jOnÄTÄn:

Om du är nöjd med prestandan från flera år gamla kort så drabbas du ju inte av detta. Det är knappast motsvarande 8600xt/RTX5060 som kommer få en Tdp på 600w utan toppmodellerna om ens de får det. Blir ju även smidigare att slippa tre kablar fram till grafikkortet som mitt RX 6800xt gör bara för att 8 pin endast är godkänd att ge 150w.
Sen har jag hellre rejält tilltagna toppmodeller så man får prestanda nog utan att använda sig av Crossfire eller SLI.

Med för stor skillnad mellan de grafikkort som gemene man kan ha råd med och toppmodellerna som bara ett fåtal personer kan köpa så blir det väldigt svårt att optimera spel vettigt. Ska man vända sig till 0,1% av spelarna eller ska man göra 90% nöjda med ok grafik och vettig fps? Den stora merparten lirar på ganska medioker hårdvara ändå.

Skrivet av anon201296:

Prestanda är verkligen inte tillräcklig ännu idag och det finns flera spel som är ospelbara i 4k ännu

Måste precis alla spel gå att spela i 4k upplösning? Är alla spel ens gjorda för att kunna köras i såna upplösningar på den hårdvara som finns tillgänglig idag? Eller är det mest "det är teoretiskt möjligt men inte praktiskt användbart till nånting"?

Skrivet av FortuN:

Oj här kunde man överdriva? Så det räcker och blir över? Sen flera år tillbaka också? haha ja om man inte har några krav på bildrutor i spel kanske.

Har gått från 2070 > 2070 super > 3080 och skulle inte tacka nej till mer. Finn flera spel ajg inte kan nå 160hz i vilket min skärm är för. Att spela fps spel under 120fps stabilt är ett stort nej. Senast Battlefield 2042 betan där det droppar allt mellan 100-65 fps. Helt ospelarbart när det går under 90. Delvis har min cpu fått jobbat mer efter uppgraderingen till 3080 men dem båda ligger och tuggar med varandra. Och då kör jag i 1440 och tidigare 1080. 4K ska vi väll inte ens snacka om hur ospelbart det skulle vara.

F1 med raytracing påslaget runt 60 fps. Helt och hållet ospelbart om man inte har 0 krav på flyt. Cyberpunk ligger oftast cpun och limitar mig men med raytracing så har vi återigen GPU som limitar. Warzone allt mellan 110-135 fps ostabilt. Hade inte tackat nej till ett 4080 med en 50% prestandaökning. Visserligen hade min 9900k bottleneckat mycket mer men ska samtidigt uppgradera till fina 12900k när den kommer.

Sedan att dem borde sänka strömförbrukning och inte ÖKA är sjäkvklart. Rummet är som en bastu efter ett litet tag med Battlefield 2042 betan eller Diablo 2 Resurrected när GPUn flåsar ur sig all värme. Hade gärna sett en limit på max 400Watt på GPU eller att inte överhuvudtaget öka mer än nuvarande. Redan fått uppgradera mitt nätaggregat från ett nytt 650RM till ett 850RM när de lanserade 3080 och med en överklockad CPU.

Så nej. Prestandra på grafikkorten behöver fortsätta göra stora framsteg utan att det för dennes skull dra upp förbrukningen till orimliga nivåer som det verkar ha blivit en trend hos Nvidia och AMD att göra och nu även Intel kanske med Alder Lake.

Om man vänder på det, är spelen verkligen tillräckligt bra optimerade om de kräver grafikkort på den nivån vi har idag för att ens vara spelbara? Eller fläskar man på med en massa extra för att få fram en väldigt liten skillnad i utseende men som kräver många gånger mer beräkningskraft från grafikkortet?

På något sätt så känns det som att man får väldigt lite tillbaka när man passerat en viss nivå, visst blir det lite snyggare men är det värt att lägga dubbla pengarna för att kunna höja kvalitetsinställningarna ett hack till med samma fps, eller omvänt... 10 fps extra för 5000kr?

Datorspelande har blivit väldigt mycket materialsport för vissa, på gott och ont.

Visa signatur

|| SWECLOCKERS.COM || oskar@sweclockers.com || OSkar000.se || Fototråden ||
|| Gundeman || Bartonofix || GundemanX2 || Obelinux || Nexofix || Filofix || Ircofix ||
|| Tillse att hjärnan är inkopplad innan fingrarna vidrör tangentbordet ||
|| D300 | D700 | 24/2,8 | 28/2,8 | 35/2 | 50/1,8 | 55/2,8 | 85/1,8 | 105/2,5 | 200/4 | 300/4,5 | 10-20 | 24-70/2,8 | 75-150/3,5 | 80-200/2,8 ||

Permalänk
Medlem

Hur man använder kortet spelar ju också roll för hur mycket det drar, det är lite som en bilmotor. Om man t.ex. kopplar ett 3090 kort till en 1080p skärm och låser fps till säg 100Hz ligger det nog på bara 30-40% belastning och tickar på. Då drar det inte så jättefarligt med ström.

Att ha en kort som kan dra 600W blir nog lite som att ha en Porsche 911 Turbo för många, det är en bil som drar en helvetes massa bränsle om man gasar fullt eller kör på en racerbana. Men det kanske man inte gör så ofta egentligen?

Bästa sättet att minska sin elräkning om man spelar mycket? Nöj er med en 1080p eller 2560x1440 skärm och lås fps till max 80-100 eller så. Kanske inte så kul men bara så ni vet. Det kostar att driva runt alla de där extra pixlarna i de nya jätteskärmarna.

Många här verkar ju tro att ett 600W kort alltid drar 600W när man spelar men det är ju inte så det funkar, det är bara under maxbelastning. Sedan kan jag hålla med om att man undrar vart utveckligen är på väg, kraftfulla kort är ju inte så bra om det bara används så att spelutvecklare slipper optimera ordentligt. I så fall kan man börja fundera över klimatet på lång sikt och sådant.

Permalänk
Medlem
Skrivet av kinkyboo:

Ja, 230 volt in bredvid HDMI bara

Jag skämtade lite. Vill gärna att konsumtionen av el går ner så att man inte behöver så starka nätaggregat.

Men jag fattar att nya spel blir mer krävande, samtidigt som 60fps inte är måttet för flyt längre. Folk skall ju maxa grafiken och få ut 144fps utan dippar.

Visa signatur

Min musik: https://www.youtube.com/channel/UCZKidNeIKsz8LZMO3VRcBdQ

Ryzen 3900x. Skärm: AOC cu34g2x/bk 144hz 34" ultrawide. RTX 2080ti

Laptop: MSI GT80 Titan Sli

Permalänk
Quizmästare Gävle 2022

Hoppas inte heller på mer värme från grafikkort men om vi kikar på vad det är så är det inte så är det ju typ som dagens 8-pin x2 fast i samma kontakt.

Att ATX säger 150w för en 8-pin är något helt annat än vad kontakten faktiskt klarar av. Vill minnas att det är 8A per stift som är specen. (Rätta mig gärna om jag har fel)
Så.. vi har egentligen redan idag tillgång till +600w på 2x8-pin om vi bara pratar kontakten. Nu kanske det blir en kontakt som kan leverera det. Bra eller dåligt kan man förstås fundera på

Visa signatur
Permalänk
Medlem
Skrivet av trickeh2k:

Snart får man börja snegla på ett DIY kärnkraftverk för privat bruk.

Normal GPU operating temperature 275-320C with water loop.

Permalänk
Medlem

Kunde de inte satt 3x USB-c på det istället?

Visa signatur
Permalänk
Medlem
Skrivet av OSkar000:

Med för stor skillnad mellan de grafikkort som gemene man kan ha råd med och toppmodellerna som bara ett fåtal personer kan köpa så blir det väldigt svårt att optimera spel vettigt. Ska man vända sig till 0,1% av spelarna eller ska man göra 90% nöjda med ok grafik och vettig fps? Den stora merparten lirar på ganska medioker hårdvara ändå..

Det har ju alltid varit stor skillnad mellan vad de flesta har och topmodellerna. I alla fall sedan jag började bry mig om vad som satt i datorn (runt 2004)
Jag tycker det fungerar ganska bra i de flesta fallen så går det optimera inställningar efter vad man har för prylar.

Visa signatur

Ryzen 5 7600
Rx 6650xt
32Gb