Kabel smälte med RTX 5080

Permalänk
Medlem
Skrivet av Xinpei:

Låter mer som ett problem med ditt urval av källor än att RTX 4090 skulle vara fria från problemet. Finns ju en rad stora Tech-tubers som menade att detta var ett ganska stort problem länkade till kablarna som kom med korten.

https://www.reddit.com/r/nvidia/comments/17uba0e/one_hundred_...

100 fall i månaden är en ganska hög siffra.

De är faktiskt väldigt lågt om du tänker dig att de säljer ca 50-100k 4090 I månaden

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem
Skrivet av Swedishchef_90:

Ja för Storbritannien är kända för sin elsäkerhet 🤣 fasen de har ju bland de sämsta i de utvecklande ländern... .

England snittar 500- 1000 döda av el per år och Sverige har 3 i snitt.
De har 6x vårat invånarantal

Menade mer det finns i andra sammanhang där man sätter säkerheten på apparaten i stället. Vissa gillar det upplägget tydligen. Har sådan liggandes och den är betydligt klumpigare än EU/Svenska jordade kontakten.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Broken-arrow:

Menade mer det finns i andra sammanhang där man sätter säkerheten på apparaten i stället. Vissa gillar det upplägget tydligen. Har sådan liggandes och den är betydligt klumpigare än EU/Svenska jordade kontakten.

Den är horribel och det finns en anledning varför så många dör i UK och detta är en av dem... Då säkerheten finns på fel ställe

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem

https://www.youtube.com/watch?v=oB75fEt7tH0

Permalänk
Medlem

Laddade ner GPU Tweak bara för att få se hur det ser ut för mitt kort

Antar att jag är "safe" nu i alla fall? xD
Detta är med Cyberpunk igång
Asus 5080 Astral

Visa signatur

AMD Ryzen 7 7800X3D
ROG Astral GeForce 5080
HyperX 32GB DDR5 6000MHz
WD SN850 1TB
ASUS ROG Strix 27" WOLED

Permalänk
Permalänk
Medlem

Vore detta ett generellt fel borde många fler vara drabbade, jag är skeptisk.

Visa signatur

Ryzen 5 3600|Asus X-470|32Gb DDR4|Asus 2060 Super
Ryzen 5 3600|ASRock B-450 itx|32Gb DDR4|2060FE -snart borta-
i7-11700K|ASUS ROG STRIX B560-F GAMING WIFI|32GbDDR4|RTX3080
2xE5-2630v3|DL360G9|256Gb|8Tb|Server 2019|4 Windows 10 & 11 VM |
NES|SNES|N64|Wii|Switch|PsOne|PS1|PS2|PS3|PS4|PS5|Xbox|Xbox360s|Xbox One X|Xbox Series X|

Permalänk
Medlem
Skrivet av adfactory:

Vore detta ett generellt fel borde många fler vara drabbade, jag är skeptisk.

Många fler kommer bli drabbade bara Nvidia börjar sälja korten.

Permalänk
Medlem
Skrivet av adfactory:

Vore detta ett generellt fel borde många fler vara drabbade, jag är skeptisk.

Fel och fel... När det gäller bryggningen av strömmen i grafikkortet så det är en generell ökad risk i både 40-serien och 50-serien pga att Nvidia är snåla.

Så länge de flesta pinnar i kontakterna i både nätagg och grafikkort har bra kontakt så funkar det ju.
Men sitter de dåligt så kan det få onödigt stora konsekvenser!
(i strömhungriga grafikkort)

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk
Inaktiv
Skrivet av tjobbo:

Laddade ner GPU Tweak bara för att få se hur det ser ut för mitt kort

<Uppladdad bildlänk>

Antar att jag är "safe" nu i alla fall? xD
Detta är med Cyberpunk igång
Asus 5080 Astral

@tjobbo

Det är oroväckande när just en pin/kabel "pin 4" drar iväg där för dig skiljer nästan 2A mellan högsta och lägsta.
Ökar värmen lite i den när det är mer belastning där så blir det en ond cirkel och det är där det brinner.

Testa furmark gpu test och kolla hur det ser ut.
Låt det gå ett tag för programmet värmer upp i början.

Alternativ att ta loss kontakten och montera den igen och prova

Permalänk
Medlem
Skrivet av Xinpei:

Menade inte dig specifikt utan "fanboys" generellt som försöker vända på varje sten för att ogiltigförklara varenda litet negativt reportage om involverar Nvidia. Senaste bortförklaringen är ju handhavande fel trots att allt pekar på designfel från Nvidias sida.

Kontakten är utvecklad av AMD, Nvida, och Intel + andra partners tillsammans. Nvidia var först att använda dem, Intel använder exakt samma kontakter som till 4090 i server-miljöer under högre laster än grafikkort sedan 2022 men vi ser inga servrar som brinner.

AMD kommer snart att börja använda kontakten med förmodligen, sin egen kontakt, som de utvecklat tillsammans med hela marknaden. Varför kallas den inte för Intel kontakten eftersom Intel även använder den marknadsbrett? För att inga användare eldar kort med den?

Permalänk
Medlem
Skrivet av Roger W:

Fel och fel... När det gäller bryggningen av strömmen i grafikkortet så det är en generell ökad risk i både 40-serien och 50-serien pga att Nvidia är snåla.

Så länge de flesta pinnar i kontakterna i både nätagg och grafikkort har bra kontakt så funkar det ju.
Men sitter de dåligt så kan det få onödigt stora konsekvenser!
(i strömhungriga grafikkort)

Ja så 100% handhavandefel, äsch sätt i kontakten ordentligt sluta skyll på andra.

Visa signatur

Ryzen 5 3600|Asus X-470|32Gb DDR4|Asus 2060 Super
Ryzen 5 3600|ASRock B-450 itx|32Gb DDR4|2060FE -snart borta-
i7-11700K|ASUS ROG STRIX B560-F GAMING WIFI|32GbDDR4|RTX3080
2xE5-2630v3|DL360G9|256Gb|8Tb|Server 2019|4 Windows 10 & 11 VM |
NES|SNES|N64|Wii|Switch|PsOne|PS1|PS2|PS3|PS4|PS5|Xbox|Xbox360s|Xbox One X|Xbox Series X|

Permalänk
Medlem
Skrivet av anon343854:

@tjobbo

Det är oroväckande när just en pin/kabel "pin 4" drar iväg där för dig skiljer nästan 2A mellan högsta och lägsta.
Ökar värmen lite i den när det är mer belastning där så blir det en ond cirkel och det är där det brinner.

Testa furmark gpu test och kolla hur det ser ut.
Låt det gå ett tag för programmet värmer upp i början.

Alternativ att ta loss kontakten och montera den igen och prova

Nej det är inget oroväckande.... Han är långt under Specs

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Inaktiv
Skrivet av Swedishchef_90:

Nej det är inget oroväckande.... Han är långt under Specs

@Swedishchef_90

Det är oroväckande när det är så stor skillnad under så låg belastning.

Borde vara jämnare mellan pinnarna.

Permalänk
Medlem
Skrivet av anon343854:

@Swedishchef_90

Det är oroväckande när det är så stor skillnad under så låg belastning.

Borde vara jämnare mellan pinnarna.

Du kan inte drag den slutsatsen på en stillbild. Ha åtminstone 1min av furmark och följ hur de ändras... Ligger dej alltid 2A över så fine men annars nej. Ingen fara

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem
Skrivet av anon343854:

@tjobbo

Det är oroväckande när just en pin/kabel "pin 4" drar iväg där för dig skiljer nästan 2A mellan högsta och lägsta.
Ökar värmen lite i den när det är mer belastning där så blir det en ond cirkel och det är där det brinner.

Testa furmark gpu test och kolla hur det ser ut.
Låt det gå ett tag för programmet värmer upp i början.

Alternativ att ta loss kontakten och montera den igen och prova

Fast om kabeln blir varmare så kommer resistansen öka, och minska skillnaden.
Jag skulle inte säga att det är någon risk

Visa signatur

CPU: R7 9800X3D | GPU: Asrock 7900XTX Taichi OC | MB: Asus B650E-I| RAM: 2x32 Kingston Fury @6000MHz CL30|Cooling:Noctua NH-D15 G2|PSU: Phanteks AMP GH Platinum 1000W|SSD: Kingston Fury Renegade 2TB + Corsair MP510 4TB |CASE:Streacom DA6 XL Chrome

Permalänk
Medlem
Skrivet av adfactory:

Ja så 100% handhavandefel, äsch sätt i kontakten ordentligt sluta skyll på andra.

Nej.

Visa signatur

CPU: R7 9800X3D | GPU: Asrock 7900XTX Taichi OC | MB: Asus B650E-I| RAM: 2x32 Kingston Fury @6000MHz CL30|Cooling:Noctua NH-D15 G2|PSU: Phanteks AMP GH Platinum 1000W|SSD: Kingston Fury Renegade 2TB + Corsair MP510 4TB |CASE:Streacom DA6 XL Chrome

Permalänk
Inaktiv
Skrivet av Swedishchef_90:

Du kan inte drag den slutsatsen på en stillbild. Ha åtminstone 1min av furmark och följ hur de ändras... Ligger dej alltid 2A över så fine men annars nej. Ingen fara

@Swedishchef_90

Det va ju det jag skrev att han får köra furmark en längre tid för att kolla. Inte en minut för programmet gör warmup i början så måste vara 15-30 min för att kolla stabila värden

Permalänk
Medlem
Skrivet av anon343854:

@Swedishchef_90

Det va ju det jag skrev att han får köra furmark en längre tid för att kolla. Inte en minut för programmet gör warmup i början så måste vara 15-30 min för att kolla stabila värden

Ampere kommer fluktera friskt beroende på kabelns vämre. Vet inte om Asus tweak kan logga just temps per pin där

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem
Skrivet av str8forthakill:

Kontakten är utvecklad av AMD, Nvida, och Intel + andra partners tillsammans. Nvidia var först att använda dem, Intel använder exakt samma kontakter som till 4090 i server-miljöer under högre laster än grafikkort sedan 2022 men vi ser inga servrar som brinner.

AMD kommer snart att börja använda kontakten med förmodligen, sin egen kontakt, som de utvecklat tillsammans med hela marknaden. Varför kallas den inte för Intel kontakten eftersom Intel även använder den marknadsbrett? För att inga användare eldar kort med den?

Huruvida servrar brinner eller inte är nog svårare att få inblick i såvida det inte skulle vara riktigt illa Jag misstänker, utan att veta, att beräkningskorten i servrar lastbalanseras, kanske någon här i tråden som sitter på ett svar? Har svårt att tro att nVidia skippar lastbalansering på serverkorten i ärlighetens namn men jag har som sagt ingen aning.

Permalänk
Medlem

Fan.
Har också ett 5080 tuf med liknande nätagg som i artikeln (Loki 850W-P). Jag har inte läst igenom hela tråden, men bör man vara bekymrad?

Permalänk
Medlem
Skrivet av anon343854:

@tjobbo

Det är oroväckande när just en pin/kabel "pin 4" drar iväg där för dig skiljer nästan 2A mellan högsta och lägsta.
Ökar värmen lite i den när det är mer belastning där så blir det en ond cirkel och det är där det brinner.

Testa furmark gpu test och kolla hur det ser ut.
Låt det gå ett tag för programmet värmer upp i början.

Alternativ att ta loss kontakten och montera den igen och prova

ca 12min Furmark, men när jag lossade kabeln, så gick ju självklar klipset eller vad nu kallas för av -_-
Kanske lika bra att köpa en ny kabel, inte för jag tror att den kommer att lossna

Visa signatur

AMD Ryzen 7 7800X3D
ROG Astral GeForce 5080
HyperX 32GB DDR5 6000MHz
WD SN850 1TB
ASUS ROG Strix 27" WOLED

Permalänk
Inaktiv
Skrivet av tjobbo:

ca 12min Furmark, men när jag lossade kabeln, så gick ju självklar klipset eller vad nu kallas för av -_-
Kanske lika bra att köpa en ny kabel, inte för jag tror att den kommer att lossna
<Uppladdad bildlänk>

@tjobbo

Aj otur med klipset.

Nu ser det riktigt bra ut, om du får en ny kabel så gör testet igen och kolla.

Mvh

Permalänk
Datavetare
Skrivet av sweisdapro:

Detta har redan avhandlats, det skulle absolut gå att göra, men då kommer det leda till större mängd krascher av datorer när nätaggregaten börjar klippa försörjningen till grafikkortet utan att det är medvetet om det.
Fördelen med att balanseringen sitter på GPUn är att det även är det som bestämmer lasten och därmed kan hantera det utan att behöva stänga av sig (som det gjort tidigare).

Fast stämmer det att det skulle bli fler krascher?

Det rimliga sättet att hantera detta på PSU-sidan vore att använda någon form av variabel resistans som ökar när strömmen ökar. Detta skulle leda till ett (litet) spänningsfall, men det spelar ingen roll så länge som Vin inte sjunker så mycket att den blir för låg för att fungera i VRMs (som är “step-down buck-converters” men med väldigt låg Vout – idag ligger vi väl på 1,0-1,5 V).

Ignorerar man förluster så gäller att

Vin*Iin=Vout*Iout

Vidare behöver

Vin > Vout + Vdelta-min

där Vdelta-min beror på valda komponenter och ligger kanske runt 1 V.

Om det uppstår obalans och man börjar öka styrresistansen för en ledare, kommer detta leda till lägre ström i just den ledaren och högre ström i de övriga. Dessutom kommer Vin att minska något, vilket betyder att den totala strömmen Iin behöver öka något.

Så länge ett par ledare fungerar som de ska kommer totalspänning och totalström justeras relativt lite.

Så varför har man inte detta i alla PSUer då? För det är i sammanhanget relativt dyra komponenter som behövs och man behöver dessa komponenter i flera uppsättningar (i den bästa av världar varje tråd, men kanske mer realistiskt för varje två par).

Än mer ökar kostnaden om man också vill ha någon vettig feed-back i läge där obalansen är större än vad som kan förväntas. Då behövs någon form av MCU/enkel dator + driver/display/liknande för att informera användaren om problemet.

Lär nog bara realistiskt i väldigt high-end PSUer.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av anon343854:

@tjobbo

Aj otur med klipset.

Nu ser det riktigt bra ut, om du får en ny kabel så gör testet igen och kolla.

Mvh

jajamän, nu kan jag avnjuta kortet, haha : )

Visa signatur

AMD Ryzen 7 7800X3D
ROG Astral GeForce 5080
HyperX 32GB DDR5 6000MHz
WD SN850 1TB
ASUS ROG Strix 27" WOLED

Permalänk
Medlem
Skrivet av Yoshman:

Fast stämmer det att det skulle bli fler krascher?

Det rimliga sättet att hantera detta på PSU-sidan vore att använda någon form av variabel resistans som ökar när strömmen ökar. Detta skulle leda till ett (litet) spänningsfall, men det spelar ingen roll så länge som Vin inte sjunker så mycket att den blir för låg för att fungera i VRMs (som är “step-down buck-converters” men med väldigt låg Vout – idag ligger vi väl på 1,0-1,5 V).

Ignorerar man förluster så gäller att

Vin*Iin=Vout*Iout

Vidare behöver

Vin > Vout + Vdelta-min

där Vdelta-min beror på valda komponenter och ligger kanske runt 1 V.

Om det uppstår obalans och man börjar öka styrresistansen för en ledare, kommer detta leda till lägre ström i just den ledaren och högre ström i de övriga. Dessutom kommer Vin att minska något, vilket betyder att den totala strömmen Iin behöver öka något.

Så länge ett par ledare fungerar som de ska kommer totalspänning och totalström justeras relativt lite.

Så varför har man inte detta i alla PSUer då? För det är i sammanhanget relativt dyra komponenter som behövs och man behöver dessa komponenter i flera uppsättningar (i den bästa av världar varje tråd, men kanske mer realistiskt för varje två par).

Än mer ökar kostnaden om man också vill ha någon vettig feed-back i läge där obalansen är större än vad som kan förväntas. Då behövs någon form av MCU/enkel dator + driver/display/liknande för att informera användaren om problemet.

Lär nog bara realistiskt i väldigt high-end PSUer.

Helt enig egentligen, jag hade dock svarat en kommentar om att varje pinne skulle vara säkrad mot att dra för mycket, vilket mer låter som OCP fast per pin.

Visa signatur

CPU: R7 9800X3D | GPU: Asrock 7900XTX Taichi OC | MB: Asus B650E-I| RAM: 2x32 Kingston Fury @6000MHz CL30|Cooling:Noctua NH-D15 G2|PSU: Phanteks AMP GH Platinum 1000W|SSD: Kingston Fury Renegade 2TB + Corsair MP510 4TB |CASE:Streacom DA6 XL Chrome

Permalänk
Medlem
Skrivet av Broken-arrow:

Bara titta på Storbritannien, där sitter säkringen i själva kontakten.

Ja? Det är ju heller ingen bra lösning. För högsta säkerhet ska avsäkringen sitta i matande ände av kabeln oavsett om det är en elcentral eller en PSU annars kan kabel och kontakter omöjligt skyddas mot överbelastning.

Permalänk
Medlem
Skrivet av str8forthakill:

Kontakten är utvecklad av AMD, Nvida, och Intel + andra partners tillsammans. Nvidia var först att använda dem, Intel använder exakt samma kontakter som till 4090 i server-miljöer under högre laster än grafikkort sedan 2022 men vi ser inga servrar som brinner.

AMD kommer snart att börja använda kontakten med förmodligen, sin egen kontakt, som de utvecklat tillsammans med hela marknaden. Varför kallas den inte för Intel kontakten eftersom Intel även använder den marknadsbrett? För att inga användare eldar kort med den?

Fast nu är det väl egentligen inte själva kontakten som är problemet? Det är ju att Nvidia snålat in på resistorer och samlat alla 6 inkommande kablar på en shunt resistor så lastbalansering inte kan ske?
Så jo, just nu är det ett Nvidiaproblem och inte ett intel/amdproblem.

Permalänk
Medlem

Lustigt, tror inte det borde vara samma problem exakt men hade problem med ett 3090 Rog Strix där en av tre x8 kablar vid ett par olika tillfällen med två olika kablar och psu (första gången corsair, andra gången ett be quiet) blev så varm att det gjorde rätt ont att ta i den. Jag antog att det handlade att om att kablarna hade slitits lite för mycket och det orsakats ojämnt motstånd. Var lite oroligt dock, en av anledningarna att jag inte behöll det- olustigt att ha en load på ett par timmar och så luktar det bränt när man öppnar dörren till rummet igen..

Min jobbtelefon råkar ha flirkamera så tog för vana att ta en titt då och då för att se att inget såg konstigt ut.

Men, vart man än kollade då så sa ju alla att det var normalt och fanns ingen anledning alls att oroa sig

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av sweisdapro:

Detta har redan avhandlats, det skulle absolut gå att göra, men då kommer det leda till större mängd krascher av datorer när nätaggregaten börjar klippa försörjningen till grafikkortet utan att det är medvetet om det.
Fördelen med att balanseringen sitter på GPUn är att det även är det som bestämmer lasten och därmed kan hantera det utan att behöva stänga av sig (som det gjort tidigare).

Nu utesluter ju det ena inte det andra. För att skydda både kabel och kontakter måste säkringen sitta i matande ände. Därav tycker jag att samma tänk borde appliceras även på PSUer som för "vanlig" el. Det är ju heller inte bara överlaster som kan vara farliga. När vi numera snackar om PSUer med enorm effekt typ 1500W så är det ännu mer angeläget att höja elsäkerheten. Därutöver är det absolut rimligt att en storförbrukare som en GPU också har inbyggda skydd.