Säkert ett skitagg men flera rails är inget problem i sig.
Det ansåg 20A per rail var max för av säkerhetskäl bland annat.
Säg 70A på några kablar det kommer gå upp i rök så inte idealiskt och jag har sett vad 60A på ett rail gör med kabeln när OPP eller OCP inte kickar in då lasten inte når det men kabeln däremot inte tål det och kabeln har ju en resistans som begränsar effekten och den stiger med tempraturen så ja kan vara svårt att rippa OPP eller OCP om en kabel blir varm om den inte klarar effekten.
Jag har ett Gammalt Zeus 850W och det har 4st 12V rails. ca 70A totalt tror jag och max 19A per rail vill jag minnas.
Det var inget problem att köra 2st Grafikkort i SLI och dubbla processorer, TDP var 2x95 för processorer och 2x 170W för grafikkorten, kan argumenteras att dagens CPU'er och grafikkort drar mer men egentligen inte relevant då detta lätt motsvara en high end burk i dag.
Det var inte så att nätagstillverkarna kom på att flera rails var bättre och moderkorts och grafikkorts tillverkarna inte var med på notorna.
Mitt Zeus 850 har Rail1 till CPU1 och Rail 2 till CPU2 och kör du en CPU med 8 pin får den båda rail 1 och 2 då delade 4x4 har ett rail per 4 pins kontakt.
ATX kontakten får rail3 för PCI-E bland annat.
4st PCI-E kontakterna har 2st på Rail4 och jag vill minnas att dom andra två har Rail3 och Rail2.
Molex/SATA har rail4.
Så du kan utan problem last balansera två processorer och 2st Grafikkort då processorerna kan ha varsitt rail eller en CPU kan ha två.
Grafikkorten kan få rail 2,3 och 4.
Summan av alla 12V railen överstiger strömbudgeten totalt sett så det finns även där inbyggd last balansering, du kan inte dra 4x19 om totalt är 70 men du kan ju dra 3x19 +13 som exempel.
Att det inte finns multirail nätdelar i dag beror nog på flera faktorer.
Men i entusiastområdet tycker jag nog det mest har med okunskap att göra, en tro att Multirail på nåt vis inte fungerar med processorer och grafikkort ungefär som att det inte var en standard där samarbeta inte skedde med moderkorts/cpu och grafikkortstillverkare.
Mitt Zeus 850 har kablarna märkta med vilket rail som det använder, manualen till mina dåtida dual socket CPU moderkort med SLI stöd hade i manualen var den drog strömmen ifrån till respektive CPU från ström kontakten så det var och är rätt lätt att bara plugga in allt rätt och i praktiken svårt att göra fel och det är uppenbart att dom vet hur en multirail nätdel är uppbyggd.
Men det verkar finnas en tro att ett multirail PSU där kan bara ett rail ge CPU ström, ett kan bara ge grafikkortet ström men i praktiken ger flera grafikkortet ström via olika kontakter, PCI-E i moderkoret, olika rails för PCI-E ström, rails delas med CPU och GPU så last balansering sker, ett rail går inte outnyttjat och ett annat blir inte överbelastat.
Mitt system drog 250W idle och 550W load, multirail var aldrig ett problem förr och det bör inte vara det i dag heller.
Och det är klart lättare att trippa ett multirail agg vid en kortis och undvika kabelbrand som jag själv beskådat med 60A rails.
Jag använder mitt nu antika Zeus 850 fortfarande och det har aldrig trippat för något annat än kortslutning så det drar runt det mesta.
Multirail nätdelar, moderkort och grafikkort var designade för att fungera tillsammans.
Jag är inget fan av singel rail nätdelar pga säkerhetsaspekten och det faktum att multirail aldrig varit ett problem ens med 2 processorer och 2 grafikkort.
Marketingen jag mins med singel rail var mer mer eller mindre baserad på fedback från entusiaster som hade "oro" över problem med lastbalansering som inte existerade. Så lite en trend som kom till baserat på okunskap tycker jag.
Sedan i dag kanske det spelar mindre roll, jag köper singel rail för det är det som finns och inte mycket att göra nåt åt.
Sedan är många multirail nätdelar egentligen bara ett stort rail med flera parallella OCP skydd och dessa ses oftast inte som äkta multirail.
Sanna multirail har individuella komponenter för varje rail också men dom var redan förr ovanliga och rätt jävla dyra så singel rail i dag är nog avsevärt billigare givet effekten så skulle tro tillverkarna gillar det med och kunder vill sällan betala mer för nåt ens om det är säkrare och lika bra.
Oavsett det är historia men multirail i sig självt är inte per automatik sämre då man i regel får överskrida både vad kablar och kontakter tål för att trippa ett rail ändå för du kommer inte använda 1st 8 pin PCI-E och dra 288W som det skitagget då kontakten bara är specad till 150W ändå, agget bör då ha en 8 pin per rail så och har den dessutom båda railsen till processorn så finns det på papper nog att klara vad standarden säger.
Så som jag ser det ska man trippa ett bra multirail agg så får man gå utanför spec på kontakter och kablar, men detta ska man inte göra oavsett antal rails och hårdvara som grafikkort och moderkort ska absolut inte komma designade med sådana fel, det händer och det har vi sett med grafikkort som drar mer än 75W från moderkortets PCI-E.
Anyway thats my rant.
Nu var det mycket på en gång.
Jag säger inte att det är omöjligt att använda multi-rail, men om du har ett grafikkort som ensamt förbrukar säg 300 W och du har två rails med 288 W, vad gör du då?
Enligt specen så har den bara en åttapinskontakt, men man kan säkert hitta eller tillverka byglar för att få ihop det. Men jag skulle inte bygla ihop några rails om det inte anges av tillverkaren att man kan göra det, för hur påverkas då överströmsskydd och andra skyddsfunktioner?