MSI först ut med PCI Express 5.0-nätaggregat

Permalänk
Medlem
Skrivet av dlq84:

Enligt PCI-spec så får man dra 150W ur varje 8-pin. Så det kommer behövas 4 stycken för att få ut 600W.

Hursom, de flesta kort på konsumentsidan kommer inte att dra 600W, det skulle innebära att kylarna måste bli mycket, mycket större och/eller effektivare. Ni måste tänka på, nåt de flesta alltid glömmer, att även servrar använder sig av PCIe...

Och du har två 8pins per kabel så två kablar, inte hela världen med andra ord och inget nytt. Var ju liknande historia när vi fick AGP och pci-express.

Vad jag önskar att man gjorde med grafikkort var samma som med moderkort, att man fick välja "moderkort" själv med mängd ram osv och så köpa den gpu-krets man ville ha, för att då enkelt kunna återanvända inte bara "moderkort" och "ram", utan också den fläskigaste fläskiga kylaren man har köpt på sig och i flera generationer använda samma kylare.
Nog för det går att ta loss kylaren från återförsäljaren idag och stoppa dit en, men de ska ju alltid ha så olika utformningar av var VRMer är placerade etc. så måste ha nytt kylblock varje gång ._.

Permalänk
Medlem
Skrivet av AplAy:

Tragisk utveckling i teknikvärlden. Jag är ingen datoringenjör men någonstans har energieffektiviteten flaskhalsat...

Nästan så att vi lika gärna kan gå tillbaka till elektronrörstransistorer med tanke på energieffektiviteten:
https://upload.wikimedia.org/wikipedia/commons/e/e9/Elektronenroehren-auswahl.jpg

Konstigaste jag läst. Energieffektivisering har aldrig varit bättre än den är idag. Nätagg på 90%+ verkningsgrad och prestanda per watt är bättre än nånsin.

Men du kanske använder termen "energieffektivt" felaktigt.

De där rören du har på bilden drog miljontals gånger mer än en enda modern transistor so. Du hittar på en CPU/GPU idag...

Och det er som börjar ropar på EU, ni kan fortfarande välja att köpa kort som drar 100W om ni vill och låt oss andra göra vad vi vill med våra pengar och elen vi köper.

Permalänk
Medlem

Hm börja att bli dax att uppgradera mina säkringar i lägenheten har nu 6A till rummet kan vara dax att förbereda sig och sikta på en 16A till rummet....
🤣🤣🤣🤣🤣🤣🤣🤣🤣🤣

Visa signatur

Låda thermaltake view 91 M-kort ASUS X399 ROG Zenith Extreme CPU AMD Ryzen Threadripper 1920X 3.5 GHz Kylning Hemma byggd vattenkylning 2 x 480mm + 1 x 420mm radiatorer Minne 8 X 16Gb DDR4 HD SSD 240GB OCZ Trion 100 Grafik Gigabyte Geforce RTX 3080 10GB GAMING OC WATERFORCE WB AGG Corsair RM 1000w 80+ Gold Skärm ASUS 43" ROG Strix XG438QR 4K VA HDR 120 Hz

Permalänk
Medlem
Skrivet av Ferre4:

Jag som är novis (kass) på området. Innebär det här att man troligtvis behöver köpa ett nytt nätagg om man planerar att köpa ett grafikkort från Nvidia 4000-serien?

Det beror nog på hur mycket ström grafikkortet kommer att dra, eftersom alla inte kommer att dra över 450 W genom sladden. Dessutom levererar ju PCIe kortplatsen fortfarande en extra 75 W.

Permalänk
Medlem
Skrivet av JBerger:

Va nä, behöver behöver du inte. Kommer garanterat gå att köpa adaptrar så du kan koppla in t.ex. 2st 8-pin pci-e kontakter för att då få den här fetare varianten.

Om kortet behöver mer än 450 W genom sladden så behöver man det. Antar att du inte läste så noga, men utan den extra lilla kontakten så går det inte att dra 600 W, eftersom grafikkortet behöver kommunicera med nätagget för att få så mycket ström.

Permalänk
Livsnjutare 😎

Nu har jag inte läst på om pci-e 5.0.... meeen, vad är skillnaden måntro ? 🤔 mot alltså ”dagens” agg

Visa signatur

Citera eller Svara för respons! •
• Life is a playground {|;^) •

Permalänk
Medlem
Skrivet av andreas_dock:

Nu har jag inte läst på om pci-e 5.0.... meeen, vad är skillnaden måntro ? 🤔 mot alltså ”dagens” agg

En ny kontakt, 12+4-pin med 600W effekt

Permalänk
Medlem
Skrivet av TheLostSwede:

Om kortet behöver mer än 450 W genom sladden så behöver man det. Antar att du inte läste så noga, men utan den extra lilla kontakten så går det inte att dra 600 W, eftersom grafikkortet behöver kommunicera med nätagget för att få så mycket ström.

och vad säger att det inte går att köpa kontrollerkort, som tillsammans med befintliga 6/8-pin pci-e sladdar, kan kommunicera korrekt och leverera 600W?

Permalänk
Medlem
Skrivet av JBerger:

och vad säger att det inte går att köpa kontrollerkort, som tillsammans med befintliga 6/8-pin pci-e sladdar, kan kommunicera korrekt och leverera 600W?

Eftersom det är själva nätaggregatet som måste kommunicera med grafikkortet. Ska du in och löda på ditt nätaggregat?

Permalänk
Medlem
Skrivet av Kaleid:

Redan 3090ti ryktas kräva 400w. Och då är det inte ens kommande next-gen.
"Tidigare rykten har också sagt att grafikkortet GeForce RTX 3090 Ti kommer att ha en TGP på över 400W. Det är 50W mer än den befintliga 3090"

Man pushar inte för 600w utan anledning, ni drömmer om ni tror att det inte kommer krävas allt mer.

Ja, 3090Ti lär slänga allt vad energieffektivitet heter åt sidan för att kräma ut varje uns av prestanda. Inget kosntigt med det. Säger inte särskilt mycket om hur det blir med nästa generation.

Sen ser man ju självklart till att ha god marginal när man pushar för en ny standard. Allt annat vore galenskap.

Permalänk
Medlem
Skrivet av TheLostSwede:

Eftersom det är själva nätaggregatet som måste kommunicera med grafikkortet. Ska du in och löda på ditt nätaggregat?

Du har tydligen bristfällig teknisk kompetens så jag kommer inte bemöda mig att svara den här konversationen något mer.

Permalänk
Medlem
Skrivet av JBerger:

Du har tydligen bristfällig teknisk kompetens så jag kommer inte bemöda mig att svara den här konversationen något mer.

Ursäkta?
Du verkar har missat hur det hela fungerar.
Den lilla extra delen av kontakten är till för att grafikkortet och nätaggregatet ska kunna kommunicera direkt med varandra, så att grafikkortet kan begära den ström som behövs "on demand".
Hur har du tänkt att ett externt kontrollerkort ska kunna lösa det? Hur ska det kopplas till ett äldre nätagg?

Permalänk
Medlem
Skrivet av JBerger:

Du har tydligen bristfällig teknisk kompetens så jag kommer inte bemöda mig att svara den här konversationen något mer.

Du har nog missat något. Kontakten består av 12 pinnar för energiöverföring. Dessa går fint att lösa via adapter.

Utöver detta tillkommer en kontakt med fyra pinnar som kommunicerar data med nätagget och där grafikkortet kan förbereda nätagget för större effektuttag och nätagget kan svara när det är redo för den ökade effekten. Detta för att minska problemen man såg med 3000-serien när många datorer kraschade när grafikkortet slumpmässigt drog stora mängder ström i korta perioder och nätagget inte han reagera.

Denna extra funktionalitet finns alltså inte i ett gammalt nätagg och går inte enkelt att lägga till heller, det är helt enkelt en helt ny funktion

Permalänk
Avstängd
Skrivet av dlq84:

Konstigaste jag läst. Energieffektivisering har aldrig varit bättre än den är idag. Nätagg på 90%+ verkningsgrad och prestanda per watt är bättre än nånsin.

Men du kanske använder termen "energieffektivt" felaktigt.

De där rören du har på bilden drog miljontals gånger mer än en enda modern transistor so. Du hittar på en CPU/GPU idag...

Och det er som börjar ropar på EU, ni kan fortfarande välja att köpa kort som drar 100W om ni vill och låt oss andra göra vad vi vill med våra pengar och elen vi köper.

Inte direkt. Försök t.ex. att köpa en 100grams chipspåse idag. Går typ inte.
Och det är klart att de gör mer per watt, men det är allt svårare att t.ex. hitta väldesignade 150w kort som är faktiskt tysta.

Skrivet av DasIch:

Ja, 3090Ti lär slänga allt vad energieffektivitet heter åt sidan för att kräma ut varje uns av prestanda. Inget kosntigt med det. Säger inte särskilt mycket om hur det blir med nästa generation.

Sen ser man ju självklart till att ha god marginal när man pushar för en ny standard. Allt annat vore galenskap.

Är det någon här som förväntar sig att nästa serie kort från Nvidia och AMD kommer kommer i snitt vara lägre watt-nivå? Riktiga drömmare.

Visa signatur

7800x3d, 64GB 6000cl30, Gigabyte X670 Gaming X AX (F9d) 12TB m.2/nvme, 8TB SSD, WD 2x12TB 5400rpm, XFX 7900xt, SoundBlasterX AE-5+, HP X34", Fractal Design Define 7, Corsair HX750, Topping MX3s, Ino Audio piMx, Dan Clark Audio Aeon 2 closed..
LG B1 65", Topping e70, Topping pa5 II plus, Guru Audio Junior+ (primärt) / Canton GLE 90, Nintendo Switch OLED, Pico 4 VR

Permalänk
Medlem

Mitt 3090 drar 600W redan idag om jag brassar på fullt i 1kW biosen...så ingen större förändring. Hade dock hellre sett mer energieffektivitet i 4000 serien så det minskade något.

Permalänk
Medlem
Skrivet av Kaleid:

Är det någon här som förväntar sig att nästa serie kort från Nvidia och AMD kommer kommer i snitt vara lägre watt-nivå? Riktiga drömmare.

Är det någon som på riktigt tror att man tagit fram 12VHPWR för att Nvidia och AMD tänkt elda på 200W mer i kommande grafikkort?

Permalänk
Avstängd
Skrivet av DasIch:

Är det någon som på riktigt tror att man tagit fram 12VHPWR för att Nvidia och AMD tänkt elda på 200W mer i kommande grafikkort?

Du tror inte pushar sådant av en anledning? Det finns inga ekonomiska incitament att driva på sådant? Korten kommer inte bara att kräva högre watt, de kommer även tjäna dessa företag mer pengar.

Kolla på generella trender. Du får betala mer för midrange kort och du får även ett kort som kräver högre watt. Nvidia gjorde stor ståhej av att kylningen till nya 3000 serien är suveräna. Då lägger man över kostnaden på konsumenterna.

Garanterat att antingen AMD eller Nvidia pushar på att göra Crysis 4 mer krävande för att de ska sälja fler dyrare kort.
AMD gjorde det med BS 64-bits patchen till Far Cry 1 (som hackades till att fungera på 32 bits operativsystem) och Nvidia pushade på helt meningslös tesselation till Crysis 2.
Crysis 1 hade DX10 features som gick att använda med DX9 kort med vissa ändringar i ini-filer.

Allt för att branschen i sin helhet ska suga ut mer pengar från folk.

Visa signatur

7800x3d, 64GB 6000cl30, Gigabyte X670 Gaming X AX (F9d) 12TB m.2/nvme, 8TB SSD, WD 2x12TB 5400rpm, XFX 7900xt, SoundBlasterX AE-5+, HP X34", Fractal Design Define 7, Corsair HX750, Topping MX3s, Ino Audio piMx, Dan Clark Audio Aeon 2 closed..
LG B1 65", Topping e70, Topping pa5 II plus, Guru Audio Junior+ (primärt) / Canton GLE 90, Nintendo Switch OLED, Pico 4 VR

Permalänk
Medlem
Skrivet av Kaleid:

Du tror inte pushar sådant av en anledning? Det finns inga ekonomiska incitament att driva på sådant? Korten kommer inte bara att kräva högre watt, de kommer även tjäna dessa företag mer pengar.

Kolla på generella trender. Du får betala mer för midrange kort och du får även ett kort som kräver högre watt. Nvidia gjorde stor ståhej av att kylningen till nya 3000 serien är suveräna. Då lägger man över kostnaden på konsumenterna.

Garanterat att antingen AMD eller Nvidia pushar på att göra Crysis 4 mer krävande för att de ska sälja fler dyrare kort.
AMD gjorde det med BS 64-bits patchen till Far Cry 1 (som hackades till att fungera på 32 bits operativsystem) och Nvidia pushade på helt meningslös tesselation till Crysis 2.
Crysis 1 hade DX10 features som gick att använda med DX9 kort med vissa ändringar i ini-filer.

Allt för att branschen i sin helhet ska suga ut mer pengar från folk.

Vill du ha bättre prestanda så blir det högre watt än så länge, det finns inte så många nanometer kvar att krympa. High-end kort rör sig bort från vanliga konsumenter pga priset och strömförbrukningen

Permalänk
Medlem
Skrivet av Kaleid:

Du tror inte pushar sådant av en anledning? Det finns inga ekonomiska incitament att driva på sådant? Korten kommer inte bara att kräva högre watt, de kommer även tjäna dessa företag mer pengar.

Kolla på generella trender. Du får betala mer för midrange kort och du får även ett kort som kräver högre watt. Nvidia gjorde stor ståhej av att kylningen till nya 3000 serien är suveräna. Då lägger man över kostnaden på konsumenterna.

Garanterat att antingen AMD eller Nvidia pushar på att göra Crysis 4 mer krävande för att de ska sälja fler dyrare kort.
AMD gjorde det med BS 64-bits patchen till Far Cry 1 (som hackades till att fungera på 32 bits operativsystem) och Nvidia pushade på helt meningslös tesselation till Crysis 2.
Crysis 1 hade DX10 features som gick att använda med DX9 kort med vissa ändringar i ini-filer.

Allt för att branschen i sin helhet ska suga ut mer pengar från folk.

Du tror alltså att AMD och Nvidia tillsammans pushar för högre effektuttag? För att...?

Permalänk
Avstängd
Skrivet av DasIch:

Du tror alltså att AMD och Nvidia tillsammans pushar för högre effektuttag? För att...?

Follow the money

Visa signatur

7800x3d, 64GB 6000cl30, Gigabyte X670 Gaming X AX (F9d) 12TB m.2/nvme, 8TB SSD, WD 2x12TB 5400rpm, XFX 7900xt, SoundBlasterX AE-5+, HP X34", Fractal Design Define 7, Corsair HX750, Topping MX3s, Ino Audio piMx, Dan Clark Audio Aeon 2 closed..
LG B1 65", Topping e70, Topping pa5 II plus, Guru Audio Junior+ (primärt) / Canton GLE 90, Nintendo Switch OLED, Pico 4 VR

Permalänk
Medlem
Skrivet av Kaleid:

Follow the money

Detta är inte en tillfredsställande comeback efter din röriga konspirationsteori om att Nvidia/AMD försöker slå mynt av strömtörstiga grafikkort genom att manipulera en meme-mässig dataspelstitel. När blev hög energiförbrukning något man kan ta extra betalt för?

Vilka fler är i maskopi med Nvidia/AMD? Nätdelstillverkarna? Elbolagen kanske?

Per någon meningsfull definition går det knappast att "suga ut" marknaden för en ren lyxkonsumtionsartikel heller.

Permalänk
Avstängd
Skrivet av Sveklockarn:

Detta är inte en tillfredsställande comeback efter din röriga konspirationsteori om att Nvidia/AMD försöker slå mynt av strömtörstiga grafikkort genom att manipulera en meme-mässig dataspelstitel. När blev hög energiförbrukning något man kan ta extra betalt för?

Vilka fler är i maskopi med Nvidia/AMD? Nätdelstillverkarna? Elbolagen kanske?

Per någon meningsfull definition går det knappast att "suga ut" marknaden för en ren lyxkonsumtionsartikel heller.

Är det en konspirationsteori att de vill sälja dyrare törstigare kort?

Maskopi? De har gemensamma intressen, de behöver inte samtala med varandra. Är du nätagg tillverkare så gnuggar du händerna för folk kommer få ta emot massa reklam för att köpa dyra kort de inte behöver, och när de väl gör det så behöver de t.ex. 1300w nätagg för att vara på säkra sidan. Gemensamma intressen, inte speciellt svårt att förstå det.

"With Ampere, Nvidia pushed the 12-pin PCIe power connector, but it never caught on. Only the Founders Edition utilized that connector. The chipmaker's partners still preferred the standard 6-pin and 8-pin PCIe power connectors for their custom Ampere offerings. The introduction of the 12VHPWR power connectors will be troublesome for power supply manufacturers. They'll either have to design new products that comes with the 12VHPWR power connector or provide existing owners with an adapter.

It's a shame that graphics card seem to be going in the other direction instead of becoming more power efficient. The GeForce RTX 3090 already took us to the 350W threshold with some custom models hitting the 450W mark. The existence of the 12VHPWR power connectors insinuates that future graphics cards may be even more power-consuming. Let's just hope that the 600W from the connector is just over-provision, and vendors actually won't have to use its maximum capacity on a consumer graphics card."

(tomshardware)

Om man tror det är för att vara på den säkra sidan så är man bra nog naiv. Man har redan pushat på ny standard från Nvidias sida.
AMD och Nvidia har gett upp på att göra kort i tidigare effektuttag utan kommer på ännu törstigare, fattar väl vem som helst som läst om AMDs chiplet design som ska komma ut redan i år.

Sen så är det förstås så att högre effektuttag kommer kräva dyrare komponenter och självklart passar man på att ta extra betalt för det.

Visa signatur

7800x3d, 64GB 6000cl30, Gigabyte X670 Gaming X AX (F9d) 12TB m.2/nvme, 8TB SSD, WD 2x12TB 5400rpm, XFX 7900xt, SoundBlasterX AE-5+, HP X34", Fractal Design Define 7, Corsair HX750, Topping MX3s, Ino Audio piMx, Dan Clark Audio Aeon 2 closed..
LG B1 65", Topping e70, Topping pa5 II plus, Guru Audio Junior+ (primärt) / Canton GLE 90, Nintendo Switch OLED, Pico 4 VR

Permalänk
Medlem
Skrivet av Sveklockarn:

Detta är inte en tillfredsställande comeback efter din röriga konspirationsteori om att Nvidia/AMD försöker slå mynt av strömtörstiga grafikkort genom att manipulera en meme-mässig dataspelstitel. När blev hög energiförbrukning något man kan ta extra betalt för?

Vilka fler är i maskopi med Nvidia/AMD? Nätdelstillverkarna? Elbolagen kanske?

Per någon meningsfull definition går det knappast att "suga ut" marknaden för en ren lyxkonsumtionsartikel heller.

3090 drar mer än 10% mer, presterar lite bättre, men framförallt kostar typ 50% mer än 3080. Kan de få ut några procent mer prestanda så verkar folk skita i både priset och energiförbrukningen om man ska se till 3000-serien i alla fall.

Jag tror absolut de ’följer pengarna’ när de släpper 3090 ti med beryktad energiförbrukning som är 450W eller högre

Permalänk
Medlem

Jo jag kan verifiera det. I syntetiska tester med 600+ W som min 3090 då drar så får man bättre resultat men i gaming sjunker den till kanske 550-575W och där får man någon fps mer som högst (4k) mot att köra t ex 500W eller 480W på min strix.

Så runt 500W verkar vara brytpunkten då det inte längre lönar sig för mig att gå längre mot hur många fps det ger.

Kanske det påverkar mer i lägre upplösningar, det har jag inte provat.