Kabel smälte med RTX 5080

Permalänk
Medlem
Skrivet av Roger W:

Åh fan... Igor säger väl att MSI:s 3090ti kort var lastbalanserade men Nvidias FE kort var inte det?
Verkar som Igor och Buildzoid inte är överens då... Buildzoid skrev ju att alla 3090ti var lastbalanserade. Förvirrande.

Ännu äldre Nvidia FE kort (9xx, 10xx och 2xx) tror jag dock fortfarande var lastbalanserade - det verkar både Buildzoid och Derbauer hinta om i sina videos.
Dvs grundpoängen att Nvidia på vägen har förenklat sin lastbalansering kvarstår.

Se ovan. Det är ju varianter av det som Nvidia gjort förut i tidigare serier som de snålat bort nu! (förutom att MSI verkar lagt in lite extra filtrering)
Har du inte kollat på några av Buildzoidvideorna?

Skrivet av Broken-arrow:

Japp det gjorde mig också osäker om jag tolkade rätt. Vore trevligt om man även fick reda på hur AMD gjort och gör med balanseringen av sina kort. Även något som bör inkluderas i framtida tester av grafikkort. Frågan hur illa det varit med PCIe (hur många kablar som fick ta mesta av lasten), för i alla fall på Nvidias sida verkar balanseringen mest varit mellan kontakter, inte över trådpar.

Igor jämför med 3090 FE (inte Ti), man kan se på TPU att kontakten sitter "korrekt" och omgiven av shunts
https://www.techpowerup.com/review/nvidia-geforce-rtx-3090-ti...

Visa signatur

CPU: R7 9800X3D | GPU: Asrock 7900XTX Taichi OC | MB: Asus B650E-I| RAM: 2x32 Kingston Fury @6000MHz CL30|Cooling:Noctua NH-D15 G2|PSU: Phanteks AMP GH Platinum 1000W|SSD: Kingston Fury Renegade 2TB + Corsair MP510 4TB |CASE:Streacom DA6 XL Chrome

Permalänk
Medlem
Skrivet av Roger W:

Åh fan... Igor säger väl att MSI:s 3090ti kort var lastbalanserade men Nvidias FE kort var inte det?
Verkar som Igor och Buildzoid inte är överens då... Buildzoid skrev ju att alla 3090ti var lastbalanserade. Förvirrande.

Ännu äldre Nvidia FE kort (9xx, 10xx och 2xx) tror jag dock fortfarande var lastbalanserade - det verkar både Buildzoid och Derbauer hinta om i sina videos.
Dvs grundpoängen att Nvidia på vägen har förenklat sin lastbalansering kvarstår.

Se ovan. Det är ju varianter av det som Nvidia gjort förut i tidigare serier som de snålat bort nu! (förutom att MSI verkar lagt in lite extra filtrering)
Har du inte kollat på några av Buildzoidvideorna?

Jo har sett den som länkats 20ggr men som sagt så tror jag inte alla kort faktiskt var balanserade.
Sen hade msi just skyddet mot störningar, vilket är smart...

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem
Skrivet av sweisdapro:

Igor jämför med 3090 FE (inte Ti), man kan se på TPU att kontakten sitter "korrekt" och omgiven av shunts
https://www.techpowerup.com/review/nvidia-geforce-rtx-3090-ti...

Snyggt fångat, visar ju tydligt det var vanliga 3090 som Igor jämförde mot, inte 3090 ti.

Så redan vanliga 3090 FE snålade med strömregleringen, men på 3090ti FE så lade dem till den på 12 pins kontakten pga hur mycket ström kortet drog. Och sen tog de bort det igen på 4000 serien och framåt

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk
Datavetare
Skrivet av Swedishchef_90:

Borde väl inte kosta många kronor att införa? Går det att införa i kabeln?

Tekniskt sett: ja.

OBS, säger inte att detta är en bra lösning. Detta visar bara att det är fullt möjligt att lösa detta problem på PSU-sidan eller till och med som en del av en "avancerad kabel".

Men då det är rätt onödigt förutom när man använder 12VHPWR-kabeln till något som ligger lite väl bara 600 W gränsen är det rimliga att sådana enheter, som t.ex. 5080/5090, borde vara där man inkluderar sådan här logik.

Prismässigt är BOM knappast försumbar ställd mot en kabel. Kollar man priset jag som privatperson skulle få betala för komponenterna handlar det i storleksordning ~100 SEK för att bygga det hela.

Skrivet av Friamannen:

Alltså din föreslagna lösning innebär att du använder transistorn som linjärregulator (i det så kallade triodområdet) och den kan då bli gött varm. Har mycket svårt tänka mig att du kan reglera det något vidare på mohm-nivå men har du exempel på en sådan lösning så visa gärna exempel, appnote eller dylikt. Det låter som en ganska spektakulär/dyr krets med rejält fina analoga komponenter med mkt god noggrannhet.
Just analog elektronik är inte min paradgren så genuint nyfiken på att se detta.

Mosfets används väl annars i ungefär 99% av fallen som switchar på/av. Så snarare skulle jag tro att man hade fått implementera det som en buck-regulator per pinne med ett återkopplingsnätverk som också har god noggrannhet för att uppnå den styrning som du tänker (ström till spänning=Duty cycle i buckregulatorn).

Dyrt och klumpigt blir det oavsett lösning.

Grejen är att normalfallet skulle ju vara att köra mosfet:en i "saturation region" (vad heter det på svenska?) och använder man en relativt vanlig mosfet som IRFZ44N så är resistansen ~18 mΩ, vilket ger en "worst-case" effekt på

9,5² * 0,018 = 1,6 W.

9,5A är absolut max någon ledare får ha enligt 12VHPWR och i genomsnitt är det högsta 8,3 A (då det är max 600 W över 6 ledare).

Får man obalans betyder det ju att den kabels med för hög ström har lägre (kontakt)resistans jämfört med snittet. I det läget styr man mosfet:en så den "lägger till" den resistans som skiljer, vilket ska hålla sig <=10 mΩ om kontakter/kablar håller sig inom specifikationen för 12VHPWR-spec:en.

I.e. det man har på varje kabel är en shunt-resistor (för att mäta strömmen) och source-drain på mosfet. Går att göra hela balanseringen med analog-teknik, själv skulle jag välja att göra det med en MCU som styr gate-pinnen på alla mosfets.

Någon i tråden nämnde "men det ger ju spänningsfall". Det är i detta fall helt irrelevant av flera orsaker. Dels pratar vi om ett spänningsfall som kommer vara i nivå med det spänningsfall man redan har i en (relativt kort) kabel + kontakter. Och dels går ju allt detta just in en "buck-converter" på GPU-sidan som tar ett rätt brett spann av inkommande spänning och gör om det till en stabil utspänning på <=1,5 V (beroende på vad som efterfrågas av VRM-kontroller).

VRM:en lär kunna göra sitt jobb även om det bara gick in 5 V, förutsatt att den då inte överskrider strömmen vad kablarna tål. Ju lägre in-spänning, ju högre in-ström för att få önskad effekt ut från VRM.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Om ens kontakter/kablar inte är speciellt varma under load efter nån halvtimme, betyder det att man sitter säkert i båten? Eller tänker jag fel här?

Visa signatur

MSI MAG B650 Tomahawk WIFI • AMD Ryzen 7 9800X3D 4.7 GHz 104MB • Noctua NH-D15 • Kingston 32GB (2x16GB) DDR5 6000MHz CL30 FURY Beast AMD EXPO/XMP 3.0 • ASUS GeForce RTX 5080 16GB Prime OC • MSI MPG A1000G PCIE5 1000W • Kingston Fury Renegade 2TB • LG 27'' UltraGear 27GP850P Nano IPS QHD 180 Hz

Permalänk
Medlem
Skrivet av Yoshman:

9,5A är absolut max någon ledare får ha enligt 12VHPWR och i genomsnitt är det högsta 8,3 A (då det är max 600 W över 6 ledare).
...
Får man obalans betyder det ju att den kabels med för hög ström har lägre (kontakt)resistans jämfört med snittet. I det läget styr man mosfet:en så den "lägger till" den resistans som skiljer, vilket ska hålla sig <=10 mΩ om kontakter/kablar håller sig inom specifikationen för 12VHPWR-spec:en.

Men återigen: om man lägger till resistans så minskar väl mängden ström som faktiskt passerar genom den ledaren?
Och OM du har ett kort som 5090 som redan maxar de andra ledarna OCH grundproblemet beror på att en eller flera av de andra kablarna har dålig kontakt så kan du väl inte rädda det med den här lösningen?

Jag upplever det som du missar hela grundproblematiken med dålig kontakt i några av ledarna, eller så är det jag som har en för förenklad (eller felaktig) bild av hur det här funkar.

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk
Datavetare
Skrivet av Roger W:

Men återigen: om man lägger till resistans så minskar väl mängden ström som faktiskt passerar genom den ledaren?
Och OM du har ett kort som 5090 som redan maxar de andra ledarna OCH grundproblemet beror på att en eller flera av de andra kablarna har dålig kontakt så kan du väl inte rädda det med den här lösningen?

Jag upplever det som du missar hela grundproblematiken med dålig kontakt i några av ledarna, eller så är det jag som har en för förenklad (eller felaktig) bild av hur det här funkar.

Det är två fall som man behöver hantera och båda är faktiskt hanterade (förutsatt att MCUn gör "rätt sak").

Det som verkar vara grundorsaken till det t.ex. der8auer såg (fallet innan det med klippta kablar) var rimligen orsakat av att en av ledarna fick betydligt lägre kontakt-resistans och därför (ohms lag + potential-vandring) får >9,5 A "löser" ju fallet jag beskriver med att man bara ökar resistansen för den ledaren.

Och tror de flesta missar att problemet ovan orsakas av att någon kontakt får väldigt låg resistans (väldigt bra kontakt). Att någon enstaka får dålig kontakt är ett långt mindre problem då det skulle sprida ut strömmen över de kvarvarande sladdarna med bra kontakt.

Har man istället fallet att en eller flera ledare faller ifrån "löser" det sig själv om man bara låter MCUn bara fortsätta pusha upp resistansen till man hamnar <9,5 A. Eller ännu bättre är nog att ha fallet: om totala effekten är högre än vad som kan pushas i de ledare som faktiskt fungerar (~100 W per ledare) drar man bara upp resistansen på mosfet till max (0 V på gate).

Det ger i praktiken samma effekt som att dra ur sladden då resistans genom mosfet då kommer bli >100 MΩ.

Så jo, båda fallen kan "räddas".

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Roger W:

Men återigen: om man lägger till resistans så minskar väl mängden ström som faktiskt passerar genom den ledaren?
Och OM du har ett kort som 5090 som redan maxar de andra ledarna OCH grundproblemet beror på att en eller flera av de andra kablarna har dålig kontakt så kan du väl inte rädda det med den här lösningen?

Jag upplever det som du missar hela grundproblematiken med dålig kontakt i några av ledarna, eller så är det jag som har en för förenklad (eller felaktig) bild av hur det här funkar.

Man vill ju sänka strömmen i den ledaren och fördela ut det jämnt? En kabel kan inte ha överström om de andra har jämn balans gentemot den kabeln...

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem
Skrivet av Yoshman:

Det är två fall som man behöver hantera och båda är faktiskt hanterade (förutsatt att MCUn gör "rätt sak").

Det som verkar vara grundorsaken till det t.ex. der8auer såg (fallet innan det med klippta kablar) var rimligen orsakat av att en av ledarna fick betydligt lägre kontakt-resistans och därför (ohms lag + potential-vandring) får >9,5 A "löser" ju fallet jag beskriver med att man bara ökar resistansen för den ledaren.

Både ja och nej: I derbauers mätning i första videon så hade en kabel 22A och en annan kabel 2A.
Den med 22A kan absolut förklaras med att den fick lägre resistans, men den med 2A måste rimligen fått extra hög resistans, dvs inte varit inkopplad ordentligt... Dvs ger bara några få watt på den ledaren, vilket redan där skulle kunna räcka för att man inte längre har marginal kvar på de andra ledarna att leverera 600W.

Skrivet av Yoshman:

Och tror de flesta missar att problemet ovan orsakas av att någon kontakt får väldigt låg resistans (väldigt bra kontakt). Att någon enstaka får dålig kontakt är ett långt mindre problem då det skulle sprida ut strömmen över de kvarvarande sladdarna med bra kontakt.

Inte om man redan maxar alla kablar med 600W! (se ovan)

Skrivet av Yoshman:

Har man istället fallet att en eller flera ledare faller ifrån "löser" det sig själv om man bara låter MCUn bara fortsätta pusha upp resistansen till man hamnar <9,5 A. Eller ännu bättre är nog att ha fallet: om totala effekten är högre än vad som kan pushas i de ledare som faktiskt fungerar (~100 W per ledare) drar man bara upp resistansen på mosfet till max (0 V på gate).

Det ger i praktiken samma effekt som att dra ur sladden då resistans genom mosfet då kommer bli >100 MΩ.

Så jo, båda fallen kan "räddas".

Förstår inte riktigt vad du menar, men det betyder väl att du stryper all ström och grafikkortet kraschar? Det är ju inte en "räddning" så som du definierade den från början.

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk
Datavetare
Skrivet av Roger W:

Både ja och nej: I derbauers mätning i första videon så hade en kabel 22A och en annan kabel 2A.
Den med 22A kan absolut förklaras med att den fick lägre resistans, men den med 2A måste rimligen fått extra hög resistans, dvs inte varit inkopplad ordentligt... Dvs ger bara några få watt på den ledaren, vilket redan där skulle kunna räcka för att man inte längre har marginal kvar på de andra ledarna att leverera 600W.

Och vad är konstigt? Om en kabel tar 22 A hanterar den då i stort sätt hälften. Fördelat jämt på övriga 5 ledare får var och en då ta ca 4,5 A. Att då någon får 2 A är, i sammanhanget, tyvärr variation inom specifikation och något man får räkna med.

Men allt detta skulle gå att "rätta till" med det jag förslår. Bara den ledare som nog hade 2 A skulle fortsätta ha en "helt öppen" mosfet, övriga skulle vara mer eller mindre strypta så det går samma ström i alla. Effekten som utvecklas i mosfet är i det läget som högst strax under var som utvecklas någonstans (antagligen i kontakten) för kabeln som såg 2 A.

Huvudproblemet är egentligen att ha något som drar 500 W eller mer över en enda 12 VHPWR-kabel. Det blir lite väl lite marginal, men skulle gå att hålla sig inom spec med aktiv lastbalansering.

Skrivet av Roger W:

Inte om man redan maxar alla kablar med 600W! (se ovan)

Förstår inte riktigt vad du menar, men det betyder väl att du stryper all ström och grafikkortet kraschar? Det är ju inte en "räddning" så som du definierade den från början.

Exakt. Om så många kablar helt faller ifrån att man inte kan leverera önskad ström med mindre än att överskrida 9,5 A (vilket är det högsta som tillåts i 12VHPWR standarden) så är det minst dåliga man kan göra i det läget att bryta allt.

Eller ser du någon bättre lösning? Man skulle i.o.f.s. kunna leverera så mycket som faktiskt går, men det kommer ändå att leda till att GPUn kraschar då den inte alls får effekten den efterfrågar.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Tekniskt sett: ja.

OBS, säger inte att detta är en bra lösning. Detta visar bara att det är fullt möjligt att lösa detta problem på PSU-sidan eller till och med som en del av en "avancerad kabel".

Men då det är rätt onödigt förutom när man använder 12VHPWR-kabeln till något som ligger lite väl bara 600 W gränsen är det rimliga att sådana enheter, som t.ex. 5080/5090, borde vara där man inkluderar sådan här logik.

Prismässigt är BOM knappast försumbar ställd mot en kabel. Kollar man priset jag som privatperson skulle få betala för komponenterna handlar det i storleksordning ~100 SEK för att bygga det hela.

Grejen är att normalfallet skulle ju vara att köra mosfet:en i "saturation region" (vad heter det på svenska?) och använder man en relativt vanlig mosfet som IRFZ44N så är resistansen ~18 mΩ, vilket ger en "worst-case" effekt på

9,5² * 0,018 = 1,6 W.

9,5A är absolut max någon ledare får ha enligt 12VHPWR och i genomsnitt är det högsta 8,3 A (då det är max 600 W över 6 ledare).

Får man obalans betyder det ju att den kabels med för hög ström har lägre (kontakt)resistans jämfört med snittet. I det läget styr man mosfet:en så den "lägger till" den resistans som skiljer, vilket ska hålla sig <=10 mΩ om kontakter/kablar håller sig inom specifikationen för 12VHPWR-spec:en.

I.e. det man har på varje kabel är en shunt-resistor (för att mäta strömmen) och source-drain på mosfet. Går att göra hela balanseringen med analog-teknik, själv skulle jag välja att göra det med en MCU som styr gate-pinnen på alla mosfets.

Någon i tråden nämnde "men det ger ju spänningsfall". Det är i detta fall helt irrelevant av flera orsaker. Dels pratar vi om ett spänningsfall som kommer vara i nivå med det spänningsfall man redan har i en (relativt kort) kabel + kontakter. Och dels går ju allt detta just in en "buck-converter" på GPU-sidan som tar ett rätt brett spann av inkommande spänning och gör om det till en stabil utspänning på <=1,5 V (beroende på vad som efterfrågas av VRM-kontroller).

VRM:en lär kunna göra sitt jobb även om det bara gick in 5 V, förutsatt att den då inte överskrider strömmen vad kablarna tål. Ju lägre in-spänning, ju högre in-ström för att få önskad effekt ut från VRM.

Skippa FETs från IR och gå på mer moderna varianter. Använder själv en 30V / 110A med RDS-On på 4mR vid 4.5V från Winsok. Sitter på en av våra produkter som går i volymer om tiotusentals per år och hittills har ingen fallerat.
Strömmätningen kan göras med något likt Allegro ACS711 som använder halleffekt och obetydlig serieresistans. Eller en något liknande INA230 från TI om man vill ner i pris och kan leva med ett mätmotstånd runt 2-4mR.

Med detta sagt är det knappast ekonomiskt försvarbart i nuläget att lägga ett sådant skydd på PSU-sidan. Bättre då att det byggs in på de produkter som balanserar på marginalerna. Dessutom när priserna på sådana produkter är som de är, sådana skydd i det sammanhanget blir en närmast obetydlig kostnad i BoM.

Visa signatur

MSI K9N SLI Diamond | MSI Diamond HDMI 7600GT | AMD X2 4200+ | 1GB Kingston HyperX| 32" LG 5000:1 screen | Asus EeePC 701

Permalänk
Medlem
Skrivet av Opatagio:

Skippa FETs från IR och gå på mer moderna varianter. Använder själv en 30V / 110A med RDS-On på 4mR vid 4.5V från Winsok. Sitter på en av våra produkter som går i volymer om tiotusentals per år och hittills har ingen fallerat.
Strömmätningen kan göras med något likt Allegro ACS711 som använder halleffekt och obetydlig serieresistans. Eller en något liknande INA230 från TI om man vill ner i pris och kan leva med ett mätmotstånd runt 2-4mR.

Med detta sagt är det knappast ekonomiskt försvarbart i nuläget att lägga ett sådant skydd på PSU-sidan. Bättre då att det byggs in på de produkter som balanserar på marginalerna. Dessutom när priserna på sådana produkter är som de är, sådana skydd i det sammanhanget blir en närmast obetydlig kostnad i BoM.

Jag kan tycka att en rimlig kompromiss är att ha per-pin avsäkring på psun (med viss marginal, typ 10-15%) och balanseringskrav på lasterna

Visa signatur

CPU: R7 9800X3D | GPU: Asrock 7900XTX Taichi OC | MB: Asus B650E-I| RAM: 2x32 Kingston Fury @6000MHz CL30|Cooling:Noctua NH-D15 G2|PSU: Phanteks AMP GH Platinum 1000W|SSD: Kingston Fury Renegade 2TB + Corsair MP510 4TB |CASE:Streacom DA6 XL Chrome

Permalänk
Medlem

Nu pratar Steve Burk om det hela.

Permalänk
Skrivet av Nyhet:

Nu är det inte bara RTX 5090 som får strömkablar att smälta.

Läs hela artikeln här

https://videocardz.com/newz/new-12v-2x6-gpu-connector-survive...

det er trygt å bruke 12V 2X6 i ATX3.1, folk lager problem for seg selv, har ikke folk råd til å kjøpe ny ATX3.1 psu? og bruke de orginale 12V 2x6 kablene? youtubere lager clickbate videoer for å tjene penger og folk biter på og lager enda mer strom i et vannglass. Det er ingen som har brent et rtx5090 kort på 12V2X6 ATX3.1 enda. forventer at folk klarer å tenke selvstendig.

Permalänk
Datavetare
Skrivet av Opatagio:

Skippa FETs från IR och gå på mer moderna varianter. Använder själv en 30V / 110A med RDS-On på 4mR vid 4.5V från Winsok. Sitter på en av våra produkter som går i volymer om tiotusentals per år och hittills har ingen fallerat.
Strömmätningen kan göras med något likt Allegro ACS711 som använder halleffekt och obetydlig serieresistans. Eller en något liknande INA230 från TI om man vill ner i pris och kan leva med ett mätmotstånd runt 2-4mR.

Med detta sagt är det knappast ekonomiskt försvarbart i nuläget att lägga ett sådant skydd på PSU-sidan. Bättre då att det byggs in på de produkter som balanserar på marginalerna. Dessutom när priserna på sådana produkter är som de är, sådana skydd i det sammanhanget blir en närmast obetydlig kostnad i BoM.

Poängen var främst att det kan göras utanför GPU:n, om man nu skulle vilja.

Sedan tog jag ett exempel – valet av MOSFET var bara "något som fungerar och som jag råkade ha använt". Precis som du säger kan man förfina det hela om man vill. Det finns ju MOSFET:ar med RDS(on) (resistans när den är fullt påslagen) på 4 mΩ och lägre. Men efter en snabb koll verkar det som att om man vill ner till ~4 mΩ så ökar priset på MOSFET:ar med 4–10 gånger, utan att egentligen tillföra särskilt mycket.

Samma sak gäller Hall-effektsensorer (vilket var det enda jag hade använt innan – jag har aldrig jobbat med shunt-resistorer). Men jag inser varför de verkar föredra shunt-resistorer på GPU:er: med en 2 mΩ shunt-resistor blir förlusterna försumbara, samtidigt som det är billigare än en Hall-effektsensor.

Jag kanske är "skadad" av att ha jobbat med inbyggda system, men en liten prissänkning i BOM kan bli rätt mycket pengar om man tillverkar tiotusentals eller till och med miljontals enheter. Av allt att döma verkar Nvidia ha tänkt likadant – även om de nu har dragit det lite väl långt med 5080/5090…

Det är kul med ny teknik, men personligen kommer RTX 3090, som jag har i jobbdatorn, troligen att bli den första, sista och enda GPU jag skaffar som drar så mycket effekt. Allt över 200–250 W känns "fel" för konsumentbruk, och jag hade helst sett att effekten låg en bra bit under 100 W…

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Ja med facit i handen skulle inte nVidia lanserat 5080/5090 (och ev fler) med denna kontakt, man borde ha dragit lärdom från erfarenheterna med 4090 och dess återkommande problem med kontakterna. Begriper inte att man ens kan vara så pass korkad från nVidias sida, och att man hela tiden skall få detta till användar fel man borde ha en säkerhetsfaktor på minst 3x strömmen i kontaktdonen. Och även begripa att det bildas oxid i kontaktdonen som förändrar kontaktresistansen, sedan att betala 20000kr för ett grafikkort som kan brinna upp när som helst är f*n bara sjukt. Alla borde bojkotta detta kort så att nVidia är tvingade att revidera designen så att man får bukt med problemet, men det verkar som det är inne bland många tillverkare att skylla det på oss konsumenter det får liksom vara nog nu.

De flesta inne här har bra nog kunskap att bygga sin egen dator det är ingen raketforskning direkt, då bör även idioterna på nVidia få upp sina ögon ganska fort om de inte vill tappa marknadsandelar slår vad om att AMD gnuggar händerna nu.

nVidia skrota denna korkade underdimentionerade kontakt 12VHPR är värdelös.

Visa signatur

Chassi: Adtronics 7890A (modifierat) || Moderkort: Asus m5a99x-evo || Cpu: Amd PhenomII 1100T || Ram: 32GB ddr3 1600mhz || Gfx: Hd5850 || Hdd: Vertex3 120gb Lagring: 1x3TB 3x2TB 2x1TB mm || Nätagg: Corsair AX850

Permalänk
Medlem
Skrivet av Yoshman:

Och vad är konstigt? Om en kabel tar 22 A hanterar den då i stort sätt hälften. Fördelat jämt på övriga 5 ledare får var och en då ta ca 4,5 A. Att då någon får 2 A är, i sammanhanget, tyvärr variation inom specifikation och något man får räkna med.

Är att en pinne får mindre än hälften av de andra pinnarna inom normal variation? Låter ganska extremt. Du får ingen känsla alls av att det tyder på att den pinner sitter rätt dåligt? Borde inte det vara ungefär lika sannolikt som att en pinne sitter extra bra?

Skrivet av Yoshman:

Men allt detta skulle gå att "rätta till" med det jag förslår. Bara den ledare som nog hade 2 A skulle fortsätta ha en "helt öppen" mosfet, övriga skulle vara mer eller mindre strypta så det går samma ström i alla. Effekten som utvecklas i mosfet är i det läget som högst strax under var som utvecklas någonstans (antagligen i kontakten) för kabeln som såg 2 A.

Huvudproblemet är egentligen att ha något som drar 500 W eller mer över en enda 12 VHPWR-kabel. Det blir lite väl lite marginal, men skulle gå att hålla sig inom spec med aktiv lastbalansering.

Missar jag något i hur du räknar här när du säger att ett 5090 klarar hålla sig inom spec? Ta Romans exempel.
Vi skickar ju 12V från nätagget. Säg att vi maxar på 2A i en kabel för att den sitter dåligt. Det är 24W, så vi ska dra 576W genom kvarvarande fem +12V pinnar.
Det är redan då 115,2W per pinne dvs 9,6A (OM alla pinnarna sitter så bra att de ens kan fås att släppa genom så mycket ström) dvs redan på smärtgränsen vad som är vettigt om man ska följa spec. Det lär ju inte brinna upp men det är ju inte "rätt" heller.

Men överlag är vi nog överens: det finns för lite marginaler i 12VHPWR-kabeln med den styrka som går genom den och hur Nvidia implementerat den. Bara några få dåliga eller för bra kopplingar kan ju i princip riskera smältning av kabel nu.

Skrivet av Yoshman:

Exakt. Om så många kablar helt faller ifrån att man inte kan leverera önskad ström med mindre än att överskrida 9,5 A (vilket är det högsta som tillåts i 12VHPWR standarden) så är det minst dåliga man kan göra i det läget att bryta allt.

Eller ser du någon bättre lösning? Man skulle i.o.f.s. kunna leverera så mycket som faktiskt går, men det kommer ändå att leda till att GPUn kraschar då den inte alls får effekten den efterfrågar.

"Bättre lösningen" är väl om grafikkortet gör strömkontrollen... Då kan den ju till och med klocka ner kontrollerat innan allt kraschar. Det var ju mitt argument från början: man kan inte lösa hela problemet på bara nätaggssidan utan att systemet går ner.

Med det sagt tycker jag ändå att det borde det finnas åtminstone fundamentala kontroller eller lastbalansering även i nätagget, så den fångar när komponenterna inte sköter sig.

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk
Medlem
Skrivet av racerNorge:

https://videocardz.com/newz/new-12v-2x6-gpu-connector-survive...

det er trygt å bruke 12V 2X6 i ATX3.1, folk lager problem for seg selv, har ikke folk råd til å kjøpe ny ATX3.1 psu? og bruke de orginale 12V 2x6 kablene? youtubere lager clickbate videoer for å tjene penger og folk biter på og lager enda mer strom i et vannglass. Det er ingen som har brent et rtx5090 kort på 12V2X6 ATX3.1 enda. forventer at folk klarer å tenke selvstendig.

Alla ignorerar tydligen vad du skriver.

Permalänk
Datavetare
Skrivet av Roger W:

Missar jag något i hur du räknar här när du säger att ett 5090 klarar hålla sig inom spec? Ta Romans exempel.
Vi skickar ju 12V från nätagget. Säg att vi maxar på 2A i en kabel för att den sitter dåligt. Det är 24W, så vi ska dra 576W genom kvarvarande fem +12V pinnar.
Det är redan då 115,2W per pinne dvs 9,6A (OM alla pinnarna sitter så bra att de ens kan fås att släppa genom så mycket ström) dvs redan på smärtgränsen vad som är vettigt om man ska följa spec. Det lär ju inte brinna upp men det är ju inte "rätt" heller.

Det är rätt enkelt matematik i grunden, men den blir ju lite komplicerad av att det är 6 ledare att hålla ordning på...

Men det är, i detta specifika fall, fullt möjligt att justera resistansen så att den pinnen som nu såg 2 A och den som såg 22 A båda skulle se samma ström helt utan att blanda in GPU.

Skrivet av Roger W:

"Bättre lösningen" är väl om grafikkortet gör strömkontrollen... Då kan den ju till och med klocka ner kontrollerat innan allt kraschar. Det var ju mitt argument från början: man kan inte lösa hela problemet på bara nätaggssidan utan att systemet går ner.

Med det sagt tycker jag ändå att det borde det finnas åtminstone fundamentala kontroller eller lastbalansering även i nätagget, så den fångar när komponenterna inte sköter sig.

Sure. Men finns fortfarande bara två fall

1. det är möjligt att balansera strömmen, vilket kommer vara möjligt både med kontroll på GPU och med kontroll som beskrivet ovan förutsatt att alla 6 ledarna faktiskt är inkopplade.

2. en eller flera ledare är brutna. I det läget går det inte att levera tillräckligt och innan man åtgärdat det kvittar det om styrning sitter i GPU eller ej. Kortet kommer inte prestera på rätt nivå.

Edit: kollade lite vad som faktiskt skulle hända om GPUn skulle begära med ström till en fas än vad 12 V sidan kan leverera. Den mest troliga effekten är instabilitet, d.v.s. en krasch.

Det verkar möjligt att göra en design som hanterar detta, men det skulle kräva en mer komplicerade design. I.e. det lär knappast vara något man stoppat in i konsument-kort.

Så i ett läge där det "inte finns tillräckligt med ström" är man rätt körd oavsett. "Rätt" fix för hela denna soppan är ju att inte ligga så nära gränsen, 5080/5090 behöver i första hand en till 12 VHPWR-kontakt. Sen borde de också har en lite "smartare" design.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av landahl:

Alla ignorerar tydligen vad du skriver.

Antagligen för att det är på norska
... och tyvärr stämmer inte det han skriver heller fullt ut:
De tekniska specifikationerna på kabeln har inte förändrats meningsfullt mellan 12VHPWR och 12V-2x6!
De fysiska ändringarna i nya specifikationerna (tex de djupare sensepinnarna) är på nätaggssidan och på GPUsidan...

Tex:
1) https://www.corsair.com/uk/en/explorer/diy-builder/power-supp...

Citat:

Let's cut to the chase. There is no difference between a 12VHPWR and a 12V-2x6 cable. The changes in revising the 12VHPWR connector and renaming it to 12V-2x6 were only made to the connectors on the graphics card side.

2) https://help.moddiy.com/en/article/can-i-use-the-existing-12v...

Citat:

Yes, 12VHPWR and 12V-2X6 are fully compatible, and there is no change in cable specifications.

Nu HAR Kontakter och adaptrar osv finputsas av de olika tillverkarna under resans gång efterhand man upptäckt brister, så det finns kablar av olika bra kvalitet och revisioner, och man kan ju hoppas de nyare H++ (ATX3.1) märkta kablarna är de bästa och mest uppdaterade, men det finns ingen garanti för det!
(se resten av förklaring i moddiy länken ovan för ett exempel - i det fallet så HAR de gjort ändringar i och med nya kabeln så den är bättre och därmed mer lämpad för 5xxx serien, MEN de förbättringarna är inte kopplat till krav från nya standarden!)

...

Och ja i de flesta fall kan man böja, bända och rucka ganska friskt på kabeln men ändå få bra koppling, men det finns en risk att man inte får det, vilket ju bevisas av att det har ramlat in en del fall på både 4090, 5090 och nu 5080, och Derbauer har ju till och med fångat extremt hög spänning på video!
(och som sagt 3.0 eller 3.1 märkning på kabeln spelar ingen roll)

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk
Medlem
Skrivet av racerNorge:

https://videocardz.com/newz/new-12v-2x6-gpu-connector-survive...

det er trygt å bruke 12V 2X6 i ATX3.1, folk lager problem for seg selv, har ikke folk råd til å kjøpe ny ATX3.1 psu? og bruke de orginale 12V 2x6 kablene? youtubere lager clickbate videoer for å tjene penger og folk biter på og lager enda mer strom i et vannglass. Det er ingen som har brent et rtx5090 kort på 12V2X6 ATX3.1 enda. forventer at folk klarer å tenke selvstendig.

Just 12V2X6 ATX3.1 kontakt och kabel hjälper inte mycket, när varken grafikkort eller nätagg ser hur mycket ström varje kabel genererar (antal ampere). Skillnaden mellan ATX3.1 och ATX3.0 är liten (om de inte smugit in någon ny ändring på nätaggs sidan). Sen med nya ATX3.1 kontakten är ju sence pinnarna kortare, så bör ju förlora kontakten om den är bara istoppad halvvägs.

Skrivet av Yoshman:

Det är rätt enkelt matematik i grunden, men den blir ju lite komplicerad av att det är 6 ledare att hålla ordning på...

Men det är, i detta specifika fall, fullt möjligt att justera resistansen så att den pinnen som nu såg 2 A och den som såg 22 A båda skulle se samma ström helt utan att blanda in GPU.

Sure. Men finns fortfarande bara två fall

1. det är möjligt att balansera strömmen, vilket kommer vara möjligt både med kontroll på GPU och med kontroll som beskrivet ovan förutsatt att alla 6 ledarna faktiskt är inkopplade.

2. en eller flera ledare är brutna. I det läget går det inte att levera tillräckligt och innan man åtgärdat det kvittar det om styrning sitter i GPU eller ej. Kortet kommer inte prestera på rätt nivå.

Edit: kollade lite vad som faktiskt skulle hända om GPUn skulle begära med ström till en fas än vad 12 V sidan kan leverera. Den mest troliga effekten är instabilitet, d.v.s. en krasch.

Det verkar möjligt att göra en design som hanterar detta, men det skulle kräva en mer komplicerade design. I.e. det lär knappast vara något man stoppat in i konsument-kort.

Så i ett läge där det "inte finns tillräckligt med ström" är man rätt körd oavsett. "Rätt" fix för hela denna soppan är ju att inte ligga så nära gränsen, 5080/5090 behöver i första hand en till 12 VHPWR-kontakt. Sen borde de också har en lite "smartare" design.

Är ju smart om grafikkortet har någon logik för hantera detta med. Kan ju skicka signal från sence pinnen från agget att nu går en kabel ur spex och kommer kopplas ifrån. grafikkortet klockas ner. Vet inte hur dyrt dessa skulle bli, men då finns det ju viss nytta med dessa sence pinnar.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Yoshman:

Det är rätt enkelt matematik i grunden, men den blir ju lite komplicerad av att det är 6 ledare att hålla ordning på...

Men det är, i detta specifika fall, fullt möjligt att justera resistansen så att den pinnen som nu såg 2 A och den som såg 22 A båda skulle se samma ström helt utan att blanda in GPU.

Jag förstår verkligen inte. Om man har en pinne som har så brutalt motstånd så att den bara levererar 2A, hur man kan då manipulera motståndet så den kan ge mer ström och mer effekt än den redan gör?
Den är ju inte helt bruten men när den ligger så lågt som den gör så finns det väl risk att den inte kan ge mer? Det går väl inte att minska motståndet mer än vad de fysiska förutsättningarna för inkopplingen tillåter?
Jag vet jag börjar bli tjatig men jag fattar inte hur det ska gå till. Ström, spänning motstånd och effekt måste ju hänga ihop.
Om jag kan förstå det så kanske jag kan släppa det här sen. (resten är nog mest semantik och missförstånd)

Skrivet av Yoshman:

2. en eller flera ledare är brutna. I det läget går det inte att levera tillräckligt och innan man åtgärdat det kvittar det om styrning sitter i GPU eller ej. Kortet kommer inte prestera på rätt nivå.

Yes, men OM GPU gjorde det, så skulle det ju som sagt iallafall ske mer kontrollerat och stabilt (kanske till och med utan krascher osv), plus att man skulle kunna få tydlig information att något är fel så man kan fixa det.
(på nätagget har man ju inte samma möjligheter)
Men nu har jag repeterat det tillräckligt många gånger - jag släpper det

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk
Skrivet av Broken-arrow:

Just 12V2X6 ATX3.1 kontakt och kabel hjälper inte mycket, när varken grafikkort eller nätagg ser hur mycket ström varje kabel genererar (antal ampere). Skillnaden mellan ATX3.1 och ATX3.0 är liten (om de inte smugit in någon ny ändring på nätaggs sidan). Sen med nya ATX3.1 kontakten är ju sence pinnarna kortare, så bör ju förlora kontakten om den är bara istoppad halvvägs.

Är ju smart om grafikkortet har någon logik för hantera detta med. Kan ju skicka signal från sence pinnen från agget att nu går en kabel ur spex och kommer kopplas ifrån. grafikkortet klockas ner. Vet inte hur dyrt dessa skulle bli, men då finns det ju viss nytta med dessa sence pinnar.

Men så lenge en følger angitt råd om å bruke atx3.1 og 12V 2x6 og helt nye kabler då må det gå bra. Jeg tviler på at Nivida kan selge noe som er farlig i norden siden det er strenge regler i værfall i Norge. Dersom det hadde vært problem ville alle 1000vis av kort brent. Nor må være brukerfeil.Det er veldig mye drama blandt youtubere.

Permalänk
Datavetare
Skrivet av Roger W:

Jag förstår verkligen inte. Om man har en pinne som har så brutalt motstånd så att den bara levererar 2A, hur man kan då manipulera motståndet så den kan ge mer ström och mer effekt än den redan gör?
Den är ju inte helt bruten men när den ligger så lågt som den gör så finns det väl risk att den inte kan ge mer? Det går väl inte att minska motståndet mer än vad de fysiska förutsättningarna för inkopplingen tillåter?
Jag vet jag börjar bli tjatig men jag fattar inte hur det ska gå till. Ström, spänning motstånd och effekt måste ju hänga ihop.
Om jag kan förstå det så kanske jag kan släppa det här sen. (resten är nog mest semantik och missförstånd)

Därför att det inte är så mycket motstånd!!

Problemet är att det relativa motståndet skiljer mycket. Något som ironiskt nog förvärras än mer om man har kablar av mycket god kvalité (låg resistans) då det ännu mer förstärker relativa skillnader i kontakt-resistans.

Då det absoluta motståndet är litet, även i ledaren där det går 2 A, är det inget större problem att kompensera om man hade sådan logik. Handlar fortfarande om effekter på max enstaka W man får "offra".

Skrivet av Roger W:

Yes, men OM GPU gjorde det, så skulle det ju som sagt iallafall ske mer kontrollerat och stabilt (kanske till och med utan krascher osv), plus att man skulle kunna få tydlig information att något är fel så man kan fixa det.
(på nätagget har man ju inte samma möjligheter)
Men nu har jag repeterat det tillräckligt många gånger - jag släpper det

Så är det. Men i som sagt inget som har ändrats här då sådan logik existerat. Så även de tidigare "bra designerna" med styrning per fas skulle bli instabila om det blev strömbrist.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av racerNorge:

Men så lenge en følger angitt råd om å bruke atx3.1 og 12V 2x6 og helt nye kabler då må det gå bra. Jeg tviler på at Nivida kan selge noe som er farlig i norden siden det er strenge regler i værfall i Norge. Dersom det hadde vært problem ville alle 1000vis av kort brent. Nor må være brukerfeil.Det er veldig mye drama blandt youtubere.

Nu är jag inte bra på norska (Engelska hade gjort det lättare), men ja en ny kabel av bra kvalité ska fungera. Men varför har Nvidia beslutat att förlita sig på resistensen mellan pinnarna som lastbalansering? Oavsett om du har ett 3.0 eller 3.1 kommer du inte ifrån risken med snebelastning. Strömmen tar alltid den vägen med mist motstånd och finns det inget som försöker tvinga strömmen att fördela sig jämnt över de 6 kablarna, så är risken stor att 1, 2 eller 3 kablar tar 99% av lasten.

Att problemet inte är värre är just bristen på kort och man kör med ny fräsch kabel. Han som fick sitt 5090 bränt hade använt kabeln i sitt 4090 (så viss slitage).

Men vill du ta risken? Nvidia verkar strunta i detta, vist hårda regler men gäller det också interna delar som ett grafikkort i en dator (som också säljs löst i för sig)? Jag menar det är inte en enorm risk för personskada (du kan få rökskador i värsta fall), så länge den sitter i plåtlåda. Jag litar inte på myndigheter tar tag i detta, såldes ju ett tag brandfarliga nätaggregat i Sverige så (tror det pågick par år).

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Roger W:

Jag förstår verkligen inte. Om man har en pinne som har så brutalt motstånd så att den bara levererar 2A, hur man kan då manipulera motståndet så den kan ge mer ström och mer effekt än den redan gör?
Den är ju inte helt bruten men när den ligger så lågt som den gör så finns det väl risk att den inte kan ge mer? Det går väl inte att minska motståndet mer än vad de fysiska förutsättningarna för inkopplingen tillåter?
Jag vet jag börjar bli tjatig men jag fattar inte hur det ska gå till. Ström, spänning motstånd och effekt måste ju hänga ihop.
Om jag kan förstå det så kanske jag kan släppa det här sen. (resten är nog mest semantik och missförstånd)

Yes, men OM GPU gjorde det, så skulle det ju som sagt iallafall ske mer kontrollerat och stabilt (kanske till och med utan krascher osv), plus att man skulle kunna få tydlig information att något är fel så man kan fixa det.
(på nätagget har man ju inte samma möjligheter)
Men nu har jag repeterat det tillräckligt många gånger - jag släpper det

Det är ju exakt samma anledning som gör att grafikkortet kan dra 1500W övervoltat tillsammans med flytande kväve, kortet kan sänka sin resistans/öka strömmen till väldigt extrema värden, men om en eller fler kablar är dåligt anslutna kan deras resistans totalt överväga så strömmen behöver gå en annan väg

En FET kan ju gå ner mot noll i resistans, och det är i princip det en GPU är i den här kretsen

Men dåligt anslutna kablar kan säga ’kom inte hit’ så att några få får ta lasten, hela vägen ner till att mer än hälften går över en av ledarna

Det är precis detta som vanlig lastbalansering kan styra så samma mängd ström går genom alla ledare, även om FET-sidan då har olika resistans för att uppnå detta

Permalänk
Medlem

Nu pratar Linus om det. Lång podcast om man är intresserad.

Permalänk
Medlem

Lyssnar någon på Linus 2025?

Visa signatur

Corsair A850W
Intel I7-7700K Kaby Lake
Asus Z270H GAMING
16 gb RAM
msi 3080 suprim x

Permalänk
Medlem
Skrivet av racerNorge:

https://videocardz.com/newz/new-12v-2x6-gpu-connector-survive...

det er trygt å bruke 12V 2X6 i ATX3.1, folk lager problem for seg selv, har ikke folk råd til å kjøpe ny ATX3.1 psu? og bruke de orginale 12V 2x6 kablene? youtubere lager clickbate videoer for å tjene penger og folk biter på og lager enda mer strom i et vannglass. Det er ingen som har brent et rtx5090 kort på 12V2X6 ATX3.1 enda. forventer at folk klarer å tenke selvstendig.

Att du inte sett det än är för att det är få som har en 5080/5090 och ännu färre av dem som har ATX3.1. Finns absolut ingenting i ATX3.1 som hindrar detta, parallell strömöverföring kräver lastdelning, finns inget sätt att komma runt det (fysikens lagar osv).

Visa signatur

|Ryzen 5800x3d|RX 7900XTX Hellhound|Asus Prime X370 Pro|32GiB Corsair 3200MHz CL16 Vengeance|Corsair HX1000i|Fractal Define R5|LG 45GR95QE|Corsair K100|Razer DeathAdder V3 Pro|Ubuntu 24.04|

Permalänk
Skrivet av Broken-arrow:

Nu är jag inte bra på norska (Engelska hade gjort det lättare), men ja en ny kabel av bra kvalité ska fungera. Men varför har Nvidia beslutat att förlita sig på resistensen mellan pinnarna som lastbalansering? Oavsett om du har ett 3.0 eller 3.1 kommer du inte ifrån risken med snebelastning. Strömmen tar alltid den vägen med mist motstånd och finns det inget som försöker tvinga strömmen att fördela sig jämnt över de 6 kablarna, så är risken stor att 1, 2 eller 3 kablar tar 99% av lasten.

Att problemet inte är värre är just bristen på kort och man kör med ny fräsch kabel. Han som fick sitt 5090 bränt hade använt kabeln i sitt 4090 (så viss slitage).

Men vill du ta risken? Nvidia verkar strunta i detta, vist hårda regler men gäller det också interna delar som ett grafikkort i en dator (som också säljs löst i för sig)? Jag menar det är inte en enorm risk för personskada (du kan få rökskador i värsta fall), så länge den sitter i plåtlåda. Jag litar inte på myndigheter tar tag i detta, såldes ju ett tag brandfarliga nätaggregat i Sverige så (tror det pågick par år).

https://indianexpress.com/article/technology/tech-news-techno... her sier Nvidia at det bruker feil og bruk av ikke orginale kabler. har lagt merke til at alle driver og snakker om
lastbalansering, dette snakket ingen om når RTX 4080 hadde samme problem, dette dukket først opp i år pga en eller annen youtuber snakket om dette, så har det tatt helt av , dette bare drama.